ДОАЃА ЕРАТА НА НЕСРЕЌИТЕ СО ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА Некои од нив се фатални, други се занемарливи

На списокот е и фаталниот лет на Лајон Ер од 2018 година, во кој загинаа сите 189 луѓе во авионот. Боингот 737 се урна во морето откако неисправните податоци од сензорот предизвикаа автоматизираниот систем за маневрирање постојано да го турка носот на авионот надолу.

1,559

Како што светот почнува да ја користи вештачката интелигенција, полека расте бројот на несреќи предизвикани од нејзините промашувања, а некои од овие несреќи завршуваат и со смрт, пишува Њузвик. Ваквите инциденти, кои се движат од сообраќајни несреќи на автономни коли до системи за разговор што создаваат расистичка содржина, годинава брзо ќе нараснуваат, велат експертите.

Пуштањето на Чат ГПТ во промет направи да нагрнат и другите модели за учење, генерирање слики, модели за автоматизирање на задачи, за финансии…






Веќе имало 500 инциденти, се удвојуваат по некој свој закон

Па сепак, досега веќе има над 500 инциденти. Лани имало 90. Во првите месеци годинава веќе има 45, што значи дека до крајот на годината со ова темпо ќе има 180. Освен ако вештачката интелигенција не биде некако укината.

Според Шон Мек Грегор, основач на проектот База на податоци за инциденти со вештачка интелигенција не смао што ќе се удвојат несреќите, туку и тие ќе следат некој свој закон, сличен на законот на Мур.

Што вели законот на Мур? Тој се бави со процесорите во нашите компјутери и нивната моќ за која предвидува дека ќе се удвојува на секои две години, но дека трендот ќе мора да сопре кога тие ќе станат премали за во нив да има уште место за силиконски делчиња. Тогаш ќе мора да се префрлиме на некоја нова технологија која нема да зависи од силиконот.

Предвидувањето го направил Гордон Мур во 1965 година и е прилично точно. Но, во случајот со вештачката интелигенција проблемот е што немаме како точно да измериме колку брзо таа се шири.

– Знаеме дека бројот на интелигентни системи во светот експлодираше, но никој не може да каже: „Вештачката интелигенција е 30 проценти побезбедно од претходната година“, затоа што ги набљудуваме само неуспесите, а не и успесите – вели Мек Грегор.

Робот уби работник во Фолксваген, Тесла помина на црвено

Некои од тие неуспеси се општествено неприфатливи, но не се фатални. На пример кога софтверот на ГуглФотос ги означи црните луѓе како „горили“ во 2015 година, или пак онаа алатка за регрутирање што Амазон мораше да ја затвори во 2018 година бидејќи софтверот обвини некои од женските кандидати за сексизам.

Други несреќи пак, можат да бидат фатални како следната: робот во фабрика на Фолксваген уби работник прицврстувајќи го на метална плоча. Во 2019 година, возач на Тесла Модел С на режим на автопилот, наводно, поминал на црвено светло и удрил во друг автомобил, при што загинале две лица во местото Гардена во Лос Анџелес.

На списокот е и фаталниот лет на Лајон Ер од 2018 година, во кој загинаа сите 189 луѓе во авионот. Боингот 737 се урна во морето откако неисправните податоци од сензорот предизвикаа автоматизираниот систем за маневрирање постојано да го турка носот на авионот надолу.

– Голем дел од она што го правиме во моментов се подготвува за свет каде инцидентите со вештачка интелигенција се неверојатно чести… На креаторите на политиката, комерцијалните актери и на човештвото воопшто им е обврска да ја изградиме потребната социјална инфраструктура за оваа крива на несреќи од графиконот да се свитка надолу.

Станислав Петров го „спаси светот“ во 1983 година

Но, можно ли е системот да дава лажни тревоги? Можеби треба да се потсетиме на приказната за еден таков систем во времето на СССР чија цел била да предупреди ако американски нуклеарни проектили се движат низ небото над Русија.

Во 1983 година покловникот Станислав Петров добил сигнал за пет вакви сигнали. Брзо убидел дека алармот е лажна тревога.

Што ќе се случело ако Петров го кренал алармот? Веројатно Русија итно би лансирала одмазднички нуклеарни проектили кон САД и би почнала нуклеарната престрелка и веројатно армагедон за човештвото.

Петров на некој начин, го спасил светот.

А што била грешката за тревогата? Системот превидел светлина од облаците и ја помешал со блесокот од проектил.

Приказната вели дека Петров сепак добил опомена од претпоставените за инцидентот и бил прераспределн на пониска функција.

 

Поврзани содржини