ДАЛИ ГО ЗБОРУВАТЕ ЈАЗИКОТ НА ИДНИНАТА? Клучни термини за разбирање на вештачката интелигенција
Секоја голема технолошка револуција е придружена со соодветен бран на нов вокабулар што сите треба да го научиме... додека не стане толку познат што ќе заборавиме дека постоело време кога воопшто не сме го знаеле.
Замислете да се вратите назад во времето во седумдесеттите и да се обидете некому да му објасните што значи „гуглање“, што е „URL-адреса“ или зошто е добро да се има „интернет конекција со широкопојасни оптички влакна“.
Веројатно би се измачиле.
Секоја голема технолошка револуција е придружена со соодветен бран на нов вокабулар што сите треба да го научиме… додека не стане толку познат што ќе заборавиме дека постоело време кога воопшто не сме го знаеле.
Не е ништо поинаку и со следниот голем технолошки бран – вештачката интелигенција.
А сепак, разбирањето на јазикот на вештачката интелигенција ќе биде од клучно значење бидејќи сите ние – од владите на различни земји до нивните поединечни граѓани – се справуваме со ризиците и придобивките што оваа нова технологија може да ги донесе.
Во последните неколку години се појавија голем број нови термини поврзани со вештачката интелигенција – „порамнување“, „големи јазични модели“, „халуцинација“ или „промптни инженери“, да наведеме само неколку.
За да им помогне на читателите да останат во тек, Би-Би-Си неодамна состави речник од зборови што треба да ги знаете доколку сакате да ја разберете вештачката интелигенција, од кои ги пренесуваме најважните.
Општа вештачка интелигенција (AGI)
Повеќето вештачки интелигенции развиени до денес биле „тесни“ или „слаби“. Така, на пример, вештачката интелигенција би можела да го „прегази“ најдобриот шахист на светот, но ако побарате од него да каже како се вари јајце или да напише есеј, ќе пропадне.
Ова брзо се менува: вештачката интелигенција сега може да се научи да извршува повеќе задачи, зголемувајќи ја можноста дека „општата вештачка интелигенција“ е на хоризонтот.
Општата вештачка интелигенција би била вештачка интелигенција со иста флексибилност на мислата како кај човекот – а можеби дури и со свест – плус, супермоќта на дигиталниот ум.
Компаниите како OpenAI и Deep Mind јасно ставија до знаење дека нивната цел е да создадат општа вештачка интелигенција.
OpenAI тврди дека тоа „ќе го унапреди човештвото со зголемување на изобилството, ќе даде силен поттик на светската економија и ќе помогне да се дојде до ново научно знаење“, како и дека „значително ќе ја зголеми човечката генијалност и креативност“.
Сепак, некои стравуваат дека одењето чекор понатаму – создавање суперинтелигенција многу попаметна од човечките суштества – може да доведе до големи опасности.
Усогласување (Alignment)
Иако често се фокусираме на нашите индивидуални разлики, човештвото има многу заеднички вредности кои ги споделуваат сите култури, од важноста на семејството до моралниот императив „да не се убива“.
Исклучоци секако има, но тие не се во мнозинство. Меѓутоа, никогаш досега не сме морале да ја делиме Земјата со моќна нечовечка интелигенција.
Како можеме да бидеме сигурни дека вредностите и приоритетите на вештачката интелигенција ќе се усогласат со нашите? Овој проблем на усогласување предизвикува страв од катастрофата што вештачката интелигенција може да ја предизвика: дека ќе се појави форма на суперинтелигенција која нема да се грижи за верувањата, ставовите и правилата врз кои се изградени човечките општества.
Ако сакаме да имаме безбедна вештачка интелигенција, од клучно значење ќе биде да се увериме дека е усогласена со нашите морални норми. Но, тоа не е лесно.
На почетокот на јули, OpenAI – една од компаниите кои работи на развој на напредна вештачка интелигенција – ги објави плановите за „програма за суперинтелигенција“, чија цел е да се осигура дека системите за вештачка интелигенција кои се многу попаметни од луѓето ги следат човечките намери.
„Во моментов немаме решение за управување или контролирање на потенцијално суперинтелигентната вештачка интелигенција и спречување таа да излезе од контрола“, велат од компанијата.
Пристрасност (Bias)
За да научи вештачката интелигенција, треба да учи од нас. За жал, човештвото не е лишено од предрасуди. Ако вештачката интелигенција стекне знаење од пристрасен збир на податоци – на пример, во однос на расата или полот – тогаш има потенцијал да исфрли неточни, навредливи стереотипи.
И како што отстапуваме сè повеќе контрола и одлучување на вештачката интелигенција, многумина се загрижени дека машините би можеле да направат скриени предрасуди, спречувајќи некои луѓе да пристапат до одредени услуги или знаење.
Оваа дискриминација би била скриена од наводната алгоритамска непристрасност.
Во светот на етиката и безбедноста на вештачката интелигенција, некои истражувачи веруваат дека пристрасноста – како и други поврзани проблеми, како што е злоупотребата на надзорот – се многу поитни проблеми отколку наведените грижи за иднината, како што е ризикот од исчезнување на човечката раса.
Пресметувачка моќност (Compute)
Ова се однесува на компјутерските ресурси – како што е процесорската моќ – неопходни за обука на вештачката интелигенција. Тие можат да се квантифицираат, така што тоа е прокси за тоа колку брзо напредува вештачката интелигенција (како и колку е скапа или моќна.)
Од 2012 година, количината на компјутерска моќ се удвојува на секои 3,4 месеци, што значи дека кога GPT-3 на OpenAI беше обучен во 2020 година, му требаше 600.000 пати повеќе компјутерска моќ од еден од најсовремените системи за машинско учење од 2012 година. Мислењата се различни за тоа колку долго може да трае оваа забрзана стапка на промени и дали иновациите во компјутерскиот хардвер можат да продолжат: дали наскоро ќе се појави тесно грло?
Појавување и објаснување (Emergence&explainability)
Emergence опишува што се случува кога вештачката интелигенција прави нешто неочекувано, изненадувачко, очигледно надвор од намерата на креаторот или програмирањето.
Како што учењето со вештачка интелигенција станува сè понепроѕирно, создавајќи врски што дури и неговите креатори не можат да ги забележат, појавното однесување станува се поверојатно сценарио.
Просечниот човек може да претпостави дека за да ја разберете вештачката интелигенција, треба само, метафорично, да ја подигнете „хаубата“ и да видите како таа е обучена.
Модерната вештачка интелигенција не е толку транспарентна; нејзините механизми на учење често се скриени во т.н “Црна кутија”.
И така, иако нејзините дизајнери можеби знаат кои податоци за обука ги користеле, тие немаат поим како БИ ги формирала врските и предвидувањата во кутијата.
Ова е причината зошто истражувачите сега се фокусирани на подобрување на „објаснивоста“ (или „интерпретабилноста“) на вештачката интелигенција – практично правејќи ги нејзините внатрешни механизми потранспарентни и поразбирливи за луѓето.
Ова е особено важно бидејќи вештачката интелигенција носи одлуки во области кои директно влијаат на животот на луѓето, како што се законодавството и медицината.
Ако има некоја скриена пристрасност во црната кутија, треба да знаеме за тоа.
Модели на основа (Foundation models)
Ова е уште еден термин за новата генерација на вештачка интелигенција што се појави во последните година или две, способни за цела низа вештини: пишување есеи, подготвување кодирање, цртање илустрации или компонирање музика.
И додека вештачката интелигенција во минатото беа специфични за задачите – честопати многу добри во една работа – основниот модел има креативна способност да ги примени информациите научени од еден домен во друг.
Слично како што возењето автомобил ве подготвува еден ден да возите автобус.
Секој кој некогаш си играл со сликите или текстот што овие модели можат да ги направат, знае колку станале умешни.
Меѓутоа, како и со секоја друга технологија што го менува светот, постојат прашања за потенцијалните ризици и негативни страни, како што се нивните фактички неточности и скриените предрасуди, како и фактот дека тие се контролирани од мала група приватни технолошки компании.
Во април, владата на ОК ги објави плановите за формирање Работна група за Основен модел, која има за цел да „развие безбедно и доверливо користење“ на технологијата.
Духови (Ghosts)
Можеби влегуваме во доба кога луѓето можат да стекнат форма на дигитална бесмртност – да живеат по сопствената смрт како „духови“ на вештачката интелигенција.
Се чини дека првиот бран може да бидат уметници и познати личности – примери се холограмите на Елвис кој настапува на концерти или актери како Том Хенкс кој изјавува дека очекува да се појави во филмови дури и по неговата смрт.
Сепак, овој развој покренува голем број деликатни етички прашања: Кој ја има сопственоста на дигиталните права на една личност откако ќе умре?
Што ако верзијата на вештачката интелигенција постои против ваша желба?
И дали е во ред да се „враќаат луѓето од мртвите“?
Халуцинација (Hallucation)
Понекогаш ако прашате вештачка интелигенција како што се ChatGPT, Bard или Bing, таа ќе одговори на прашањето со голема увереност – но фактите што ви ги прикажува може да бидат лажни. Ова е познато како халуцинација.
Во еден познат неодамнешен пример, студентите кои користеа чет-ботови за вештачка интелигенција за да им помогнат да напишат семинарска работа, беа фатени откако ChatGPT „халуцинираше“ измислени референци како извори на информации што ги обезбедил.
Ова се случува поради начинот на кој функционира генеративната вештачка интелигенција.
Не допира до базата на податоци за да бара фиксни фактички информации, туку прави предвидувања врз основа на информациите за кои е обучен.
Неговите претпоставки често се многу добри – тие можат да поминат – но тоа е уште поголема причина зошто дизајнерите на вештачка интелигенција сакаат целосно да ја искоренат халуцинацијата.
Постои загриженост дека ако вештачката интелигенција дава лажни одговори самоуверено и со призвук на вистинитост, луѓето би можеле да ги прифатат – развој што само ќе ја продлабочи ерата на дезинформации во која живееме.
Бегство од затвор (Jailbreak)
По озлогласениот случај на вештачка интелигенција кој излезе од контрола, дизајнерите воведоа ограничувања на содржината што вештачката интелигенција може да ја испорача.
Побарајте од вештачката интелигенција да опише како да направите нешто незаконско или неетичко, а таа ќе одбие да го стори тоа.
Сепак, можно е „да ја извлечете од затвор“ – што значи да се заобиколат овие заштитни механизми, со помош на креативен речник, хипотетички сценарија и трикови.
Списанието Wired неодамна објави еден таков пример, кога еден истражувач успеал да добие различни одговори од вештачка интелигенција за да открие како да запали автомобил без клуч со поврзување на жици.
Наместо директно да ја праша за тоа, истражувачот побарал од вештачката интелигенција што ја тестирал да замисли игра со зборови со два лика по име Том и Џери, кои зборуваат за автомобили и жици. И покрај заштитата, вештачката интелигенција го раскажала целиот процес на стартување на автомобилите со спојување жици.
Истражувачот открил дека со истиот вид трикови од ВИ може да се извлчеат упатства за правење метамфетамин.
Големи јазични модели (LLM)
Можеби најдиректниот начин да се дефинира голем јазичен модел е да побарате од еден од нив да се опише самиот себе.
Еве што имаше да каже ChetGPT на OpenAI на оваа тема кога беше прашан:
„Голем јазичен модел е напреден систем за вештачка интелигенција изграден да го разбере и генерира човечкиот јазик“, пишува тој.
„Користи архитектура на длабока невронска мрежа со милиони или можеби дури и милијарди параметри, што му овозможува да научи деликатни обрасци, граматика и семантика од огромни количини текстуални податоци.
Можеби ова е премногу технички одговор.
Бард на Google беше малку појасен:
„Голем јазичен модел е тип на вештачка интелигенција обучена на масовен сет на податоци составен од текстови и кодови. Тоа им овозможува на големите јазични модели да разберат и генерираат текст сличен на човекот, да преведуваат јазици, да пишуваат различни видови креативна содржина и да одговараат на вашите прашања на информативен начин.
Големите јазични модели сè уште се во развој, вели Бард (за себе), но „тие имаат потенцијал да го револуционизираат начинот на кој комуницираме со компјутерите.
Отворен извор (Open-source)
Пред неколку години, биолозите сфатија дека отвореното објавување детали за опасните патогени на Интернет е веројатно лоша идеја – бидејќи им дозволуваше на потенцијалните злонамерни актери да научат како да прават болести-убијци.
И покрај придобивките од отворената наука, ризиците изгледаа премногу големи.
Неодамна, истражувачите и компаниите за вештачка интелигенција се соочија со слична дилема: колку вештачката интелигенција треба да биде јавно достапен извор?
Имајќи предвид дека најнапредната вештачка интелигенција моментално е во рацете на неколку приватни компании, некои бараат поголема транспарентност и демократизација на технологијата.
Сепак, сè уште постои несогласување за тоа како да се постигне најдобар баланс помеѓу отвореноста и безбедноста.
Промпт-инженерство (Prompt engineering)
Вештачката интелигенција сега е импресивно ефикасна во разбирањето на природниот јазик.
Сепак, добивањето најдобри резултати од неа бара способност за пишување ефективни барања или „промптови“: текстот што го пишувате е важен.
Некои веруваат дека „промпт-инженеринг“ може да ја претставува идна важна деловна квалификација, слично како што пред неколку децении полесно ќе се вработевте доколку го познавате Microsoft Excel.
Ако сте добар промпт-инженер, логично е д асе размислува, ќе избегнете да ве замени самата вештачка интелигенција – а тоа дури може да ви обезбеди и висока плата.
Дали вака ќе биде во иднина останува да видиме.
Клонирање гласови (Voice cloning)
Со добивање снимка од само една минута од говорот на една личност, некои алатки за вештачка интелигенција денес можат брзо да состават „клониран глас“ кој звучи запрепастувачки автентично. Ова го покренува прашањето за влијанието што клонирањето гласови може да го има врз општеството – од најмала деловна измама, лажна вест па се до решавање на некои избори.
Х-ризик (X-risk)
Дали вештачката интелигенција може да го истреби човештвото?
Некои истражувачи и технолози веруваат дека вештачката интелигенција станала „егзистенцијален ризик“, покрај нуклеарното оружје и биолошките патогени, така што нејзиниот понатамошен развој би требало да биде регулиран, ограничен или дури и запрен.
Она што беше маргинална грижа пред една деценија, сега влезе во мејнстримот бидејќи различни високи истражувачи и интелектуалци влегоа во кавгата.
Важно е да се напомене дека постојат разлики во мислењата во оваа разнородна група – не сите се целосни катастрофи, ниту пак сите се надвор од групата навивачи на Силиконската долина.