ОД ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА СЕ ПЛАШНИ И ЕДЕН ОД КРЕАТОРИТЕ: Не спијам од помислата дека направивме нешто навистина лошо со лансирањето на ChatGPT!
Извршниот директор и основач на OpenAI, Сем Алтман, изрази загриженост дека „можеби имало нешто тешко и комплицирано“ што неговиот тим не го препознал кога работел на четботот.
Извршниот директор и основач на OpenAI, Сем Алтман, призна дека не спие ноќе размислувајќи за опасностите од ChatGPT, водечкиот производ на компанијата.
За време на неодамнешната посета на Индија, Алтман изрази загриженост дека можеби направил „нешто навистина лошо“ со создавањето на ChatGPT, технологијата за вештачка интелигенција која започна во ноември и предизвика голем интерес.
– Она што најмногу ме загрижува е хипотетичката идеја дека веќе направивме нешто навистина лошо со започнувањето на ChatGPT – му рече Алтман на Сатјан Гајвани, потпретседател на Times Internet, на настан организиран од Economic Times.
Алтман изрази загриженост дека „можеби имало нешто тешко и комплицирано“ што неговиот тим не го препознал кога работел на четботот. На прашањето дали вештачката интелигенција треба да се регулира на сличен начин како нуклеарната енергија, Алтман рече дека треба да има подобар систем за ревизија на процесот.
– Треба да воспоставиме систем за да можеме да ги следиме луѓето што го прават тоа, да го лиценцираме, да правиме безбедносни тестови пред да се примени – истакна Алтман.
Во март, група технолошки лидери, вклучувајќи ги Илон Маск и ко-основачот на Apple, Стив Возниак, напишаа отворено писмо во соработка со Future of Life Institute за да предупредат дека моќните системи со вештачка интелигенција треба да се развиваат само кога постои уверување дека нивните ефекти ќе да бидат позитивни и дека со ризиците може да се управува.
Во писмото се повикува на пауза од шест месеци во обуката на системи со вештачка интелигенција помоќни од GPT-4. Алтман рече дека на писмото „нема техничка нијанса за тоа каде точно ни треба пауза“.
Претходно овој месец, Алтман беше меѓу групата од повеќе од 350 научници и технолошки лидери кои потпишаа изјава во која изразија длабока загриженост за ризиците од вештачката интелигенција.
– Намалувањето на ризикот од истребување од вештачката интелигенција треба да биде глобален приоритет заедно со другите ризици на општествено ниво, како што се пандемии и нуклеарна војна – се вели во изјавата потпишана од научниците и технолишките лидери.