ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА, ИЗМАМА ИЛИ ИДИОТИЗАМ? Не би можеле да знаеме бидејќи ни Туринговиот тест не е валиден!

Но, некои експерти велат дека јазичен модел кој е добар предвидувач на муабети, не е исто што и свесност. Барем не засега. Жижек зборува за „вештачкиот идиотизам“ каде попрво самите луѓе ќе сакаат да имитираат како чатот наивно и тапо расудува, додека Чомски вели дека чатот уште долго време ќе биде површен и оптоварен со пресметување на веројатност, па човечкиот ум ќе остане побрз.

619

Ќе биде ли ЧатГПТ некогаш вистински свесен како човек или пак толку добро ќе ја имитира свесноста што тој ќе биде „како човек“? Ако сте повеќе за ова второво, тогаш можеме да речеме дека ЧатГПТ веќе е свесен, судејќи по претходниците на овој софтвер, како моделот Ламда на Гугл кој лани го помина познатиот Турингов тест. Вашингтон Пост тогаш напиша дека ова ги ставило истражувачите на мисла дека самиот тест не е етички, односно дека го отвора прашањето за тоа дали треба да бидеме измамени од компјутер при самото тестирање и колку е тоа научно валидно?

Со народски зборови, ние во моментов немаме како да испитаме дали некоја машина е свесна.






Многу корисници на интернет веќе велат дека според нивното искуство и Чат ГПТ, во својата трета итерација поминал истиот тест. Компанијата Опен АИ до крајот на годината би можела да ја пушти во оптек петтата верзија за кој се вели дека може да доведе до Генералната вештачка интелигенција(ГВИ), која сама ќе расудува, а ние нема да знаеме како го прави тоа.

Истовремено, неколку стотици експерти, меѓу кои и Илон Маск напишаа дека веќе се загрижени и побараа привремен прекин на проектот.

Исплашен е и самиот креатор на ЧатГПТ, извршниот директор Сем Алтман.

– Мислам дека би било лудо да не се плашиме малку, и сочувствувам со луѓето кои многу се плашат – изјави тој во подкаст кај Лекс Фридман минатиот викенд.

– Ќе има и други луѓе кои нема да постават некои од безбедносните ограничувања што ги ставивме на него – додаде Алтман велејќи дека не треба да го исмејуваат поради тоа.

Тестот положен, но дали е „ученикот“ свесен?

Алтман не го потпиша писмото, но стигнуваат многу други предупредувања. Сите се сеќаваат дека кога еден од девелоприте на Ламда изјави дека моделот покажува емоции, тој беше отпуштен од Гугл.

Ќе имаме ли ГВИ – Генеративна вештачка интелигенција во петтата верзија на Ѓепето, како што нагалено го викаат Чат ГПТ? Не ни можеме точно да предвидиме дали новата верзија ќе ја има моќта сама да расудува како човек, пишува порталот БГР. Она што е сигурно дека до декември треба да имаме бета-модел подобар од сегашниот.

Настрана од емоциите, во што се состои Туринговиот тест? Пред седумдесет години брилијантниот научник Алан Туринг решил дека ако зборувате со „некој“ во друга соба и заклучите дека тоа е човек, а не некаква машина која одговара, тогаш машината мора да е свесна. За споредба, би можело да има две соби, па во една вистински да има човек а во другата машина, па вие да одлучите дали постои разлика.

Туку, нели би можел и ботот да биде трениран да имитира емоции доколку ги нема? Софтвери и за ова веќе постојат. Која би била разликата тогаш? Умот според Карл Јунг се состои од четири функции, меѓу кои разумот, емоцииите, сетилата и интуицијата. Ако сметаме дека ботовите процесираат информации и можат да добиваат информации кои ние им ги даваме – на пример, првична слика за уредување во Midjourney или во DALL-E, тогаш засега опфатен е само секторот разум кој процесира тоа што ќе му го дадат сетилата.

фото: pixabay.com

Не се плашете, јазичен модел и свест не се исти нешта – или се?

Некои од водечките портали во САД напишаа статии во кои велат дека еден јазичен модел кој може да предвиди што ќе го прашате или на каде цели разговорот врз база на НЛП техники не е исто што и вештачка интелигенција.

Тука дебатата се сведува чисто на јазичниот дел – оној, лингвистичкиот. Еден од познатите лингвисти и аналитичари, Ноам Чомски, вели дека сме многу далеку од вештачка интелигенција. Тој ги осуди „хиперболичните наслови“ во медиумите, пишува Футуризам.

Чомски ѝ дава предност на човековата интелигенција.

– Додека луѓето се ограничени во видовите објаснувања што можеме рационално да ги претпоставиме, системите за машинско учење можат да научат и дека земјата е рамна и дека земјата е тркалезна. Тие тргуваат само со веројатности кои се менуваат со текот на времето – забележува тој.

– Поради оваа причина предвидувањата на системите за машинско учење секогаш ќе бидат површни и сомнителни – истакнува Чомски.

Значи, ЧатГПТ ќе ги „вага“ веројатностите. Ќе работи слично како што работи квантниот компјутер кој од повеќето решенија треба да го избере најверојатното, па секогаш постои маргина на грешка. Но, кога таа маргина ќе биде занемарлива битно ли ќе биде дека имаме „грешник“ од другата страна?

Чатот ќе биде тап и наивен глупак, печен за диктатор!

Неодамнешно истражување вели дека ЧатГПТ сè уште дава лоши и конфузни совети за здравјето, иако успеа да положи приемен испит по медицина. Во едно истражување, само 41 отсто од одговорите биле во согласност со совет кој лекарите би го дале, додека 29 отсто биле премногу нејасни или ирелевантни.

Славој Жижек, еден од популарните постмодерни филозофи на денешницата вели дека проблемот не е што ВИ ќе стане свесна, туку дека луѓето ќе сакаат да го имитираат однесувањето на ЧатГПТ и сличните ботови, ќе се идентификуваат со нив и новиот начин на „размислување“.

Тој го нарекува овој процес ера на Вештачкиот идиотизам, наспроти Вештачката интелигенција.

„Проблемот со новите чет-ботови не е само тоа што често се глупави и наивни, туку е дека не се доволно „глупави“ или „наивни“ за да можат да ги забележат нијансите во изразувањето, да ја разберат иронијата и не можат да ги откријат противречностите што ја сочинуваат човечката култура и комуникација. Згора на тоа, потпирајќи се на нив, и ние ризикуваме да подлегнеме на истата тапост“, пишува филозофот.

Наивноста и простотата на Чат ГПТ, според Жижек, неговата неспосбност да биде рефлексивен може да направи да гледаме на него како на невин светец, како на принцот Мишкин од „Идиот“ на Достоевски.

„Затоа, новите чет-ботови многу добро ќе се сложуваат со идеолози од сите табори, од денешното „освестено“ граѓанство до националистите под кредото „Да ја направиме Америка повторно голема“ (МАГА) кои претпочитаат да бидат „заспани“, смета словенечкиот филозоф.

Тој вели и дека ако го програмираме ботот за цензурата ќе треба да се договориме до каде ќе оди таа цензура. Тука се поставува и прашањето на политичката коректност во денешниот модерен свет и не само нејзините добри, туку и лоши и бизарни страни. Што значи да имаме етички бот?

Бавно се крчкаат правилата за ВИ, а светот врви

Во меѓувреме, брзањето на компаниите да се интегрираат и да ја користат оваа нова технологија предизвикува многу проблеми. Порталот Си-Нет го користи ботот за генерирање на написи кои понекогаш содржеле неточности, до информации за кредитните картички кои преку ЧатГПТ можат да дојдат во нечии раце.

На интернет фама направија и неколку длабоки лажни слики создадени преку генератор на слики со вештачка интелигенција Midjourney.

Чат ГПТ беше привремено  забранет во Италија поради случај поврзан со приватност. Чатот ќе се соочи и со жалба од Федералната трговска комисија во САД. Европската Унија подготвува свои правила за ВИ.

Но истовремено, приватно училиште во Силиконската Долина во Калифорнија во САД воведе свој вештачки интелигентен ВИ-тутор кој треба да ги учи децата. Тие ќе имаат можност и да му притиснат негативен лајк ако мислат дека тој кажува нешто неточно.

Се чини дека ботот ќе стане стандард во нашите животи, заедно со Бард на Гугл и други.

Вештачка или не, идиотска или божествена, интелигенцијата ќе биде сè повеќе околу нас.

 

Поврзани содржини