Најважна разлика је у однос на управљање: грешка на човека обично погађа појединца или малечку групу радници, док грешка на систем може да изазове голему штету, на коју често човек не може да утиче. Све тој може да има големе последице као што је пад на тржиште.
Слична ситуација може да се види у случај на Теслини АI системи „Autopilot“ куде су појединачне грешке довеле до големе несреће. Јед’н од најпознати примери је догађај из 2019. годину довеја је до тој да порота на Флориду 2025. године пресуди да предузеће мора да плати више од 243 милиона долари. Ов’ј случај показује како АI грешка може да има не само дирекне новчане последице, него и трагични исходи за људи.
Мрежа на ризици
Ризици у рад на вештачку интелигенцију често настанујев још у фазу к’д се она обликује и к’д се постављав темељи на модел. Ако се грешке уградив у овуј основу онда се после преносив на сви делови који систем подржава. Тој значи да проблеми несу издвојени, већ можев да имав дуготрајне последице штетне за цел систем. Јед’н од кључни узроци на грешке је необјективност и половични подаци.
К’д су подаци на који се нешто тестира ограничени или лоши претставници, вештачка интелигенција ги усваја и преноси такој што прави поголеме грешке.
Други проблем је недовољно испитивање у стварни услови. Многи АI системи се развијав и проверавав у контролисани окружења, али к’д се пуштив у работу, дооди до неочекивани резултати. Без довољно практични испитивања, систем може да реагује непредвидено, да донесе погрешне одлуке или направи пропус кој у лабораторију никој неје могја да предвиди.
Голем ризик претставља ослањање на „црне кутије“ – план на кораци на одређену работу, што потешко открива и исправља грешке. У финансије, АI често одбије захтеви за кредит без образложење и на т’ј начин нарушава поверење на корисници. Такође, ако се окружење мења побрго од освеживање на АI системи, прецизност у работу, а и грешке ће постанев ланчане и онда ће захтевав поголеме исправке.
Извор: Бизнис и Финансије