РАЗВОЈОТ НА ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА ДА СЕ ПАУЗИРА Со отворено писмо се укажува на ризиците за човештвото

Отвореното писмо, објавено од Иницијативата Future of Life Institute, повикува на шестмесечна пауза во развојот на системи помоќни од GPT-4, предупредувајќи дека трката во создавање „дигитални умови“ излегла од контрола и претставува сериозен ризик за човештвото.

91

Повеќе стотици познати личности, меѓу кои научници, технолошки визионери, религиозни водачи, медиумски магнати и интелектуалци, потпишаа отворено писмо со кое се бара да се паузира развојот на вештачката интелигенција, додека не се докаже дека таа е безбедна и корисна за човештвото. Имиња како Стив Вознијак, Стив Бенон, Ричард Бренсон и Принцот Хари, го потпишаа овој алармантен повик.

Отвореното писмо, објавено од Иницијативата Future of Life Institute, повикува на шестмесечна пауза во развојот на системи помоќни од GPT-4, предупредувајќи дека трката во создавање „дигитални суперумови“ излегла од контрола и претставува сериозен ризик за човештвото.






Во писмото се наведува дека напредната АИ може да стане пресвртница во историјата на животот на Земјата, но за тоа не постои соодветно планирање, контрола и безбедносна рамка.

Авторите прашуваат: Дали ќе дозволиме машините да ги преплават медиумите со пропаганда и невистини? Дали ќе ги замениме сите човечки работни места? Дали ќе создадеме немашински умови кои ќе нѐ надминат и ќе нѐ заменат?

Во писмото се нагласува дека овие одлуки не смеат да се остават во рацете на неколку неизбрани технолошки лидери и дека моќните АИ системи треба да се развиваат само ако е докажано дека се безбедни и општествено корисни. Потписниците ја поддржуваат тезата на OpenAI дека е неопходен независен надзор пред тренинг на идни генерации на јазичните модели, додавајќи дека „времето за тоа е сега“.

Тие бараат јавна и проверлива пауза од најмалку шест месеци, во која лабораториите и независните експерти би развиле заеднички безбедносни протоколи, под надзор на надворешни тела. Не се предлага запирање на истражувањата во целост, туку прекин на опасната трка за сè поголеми, непредвидливи и непрозрачни системи. Наместо тоа, истражувањето треба да се насочи кон зголемување на точноста, безбедноста, транспарентноста и доверливоста на постојните системи.

Во исто време, се бара од владите и технолошките компании да изградат силни механизми за управување со АИ, со регулаторни тела, системи за надзор, водени траги за синтетички содржини и јасна одговорност за штетите што може да ги предизвика вештачката интелигенција.

„Човештвото може да ужива во просперитетна иднина со АИ, ако сега притиснеме пауза и ја искористиме оваа технологија за општо добро“, се наведува во писмото. „Ајде да уживаме во едно долго ‘лето на АИ’, наместо да влетаме неподготвени во есен на колапс.“

 

Поврзани содржини