Наричан още „Кръстникът на изкуствения интелект“, проф. Джефри Хинтън има ключова роля в създаването на методите, които днес са в основата на съвременните системи за изкуствен интелект (AI). Ранната му работа в областта на изкуствените невронни мрежи му носи престижната награда „Тюринг“, а един от учениците му, Иля Суцкевер, става съосновател на OpenAI, организацията, която стои зад ChatGPT.

В качеството си на човек, който от десетилетия допринася за развитието на тази област, неговите предупреждения имат особена тежест. Затова, когато наскоро се оттегли от своя пост в Google и изрази опасенията си относно потенциалните рискове, светът се вслуша.

Хинтън бе и един от подписалите отвореното писмо, публикувано през март миналата година, в което се призоваваше за 6-месечна пауза в разработването на изкуствен интелект, по-напреднал от GPT-4. Всъщност, едно от най-разпространените опасения е, че изкуственият интелект може да достигне интелигентност, сходна или по-напреднала от нашата. Термин, известен още като „изкуствен общ интелект“ (AGI) в технологичните среди.

Но как точно можем да определим интелигентността на една AI система и трябва ли да я сравняваме с нашата собствена?

Според Хинтън, лесно можем да попаднем в капана на сравнението между изкуствения и човешкия интелект. Например, езиковите модели като GPT-4 могат да създават съдържание, което в много отношения е поразително близко до човешкото. Освен това имат интересната способност да „халюцинират“ или да създават измислени сценарии, подобно на човешката креативност. Въпреки това поставянето на знак за равенство между изкуствения и човешкия интелект въз основа на тези прилики е ограничено.

Хинтън смята, че трябва да приемем „AI като форма на интелигентност, която е фундаментално различна от нашата“.

Ние сме биологични системи, а те са дигитални. За разлика от хората, AI системите могат мигновено да споделят информация помежду си. Ако науча нещо за квантовата механика и искам да предам наученото, това е дълъг и труден процес

– посочва той.

Но ако имам 10 000 невронни мрежи, всяка със свой собствен опит и възможност за мигновено споделяне на наученото. Това е огромна разлика. Това е все едно да имате 10 000 души и веднага щом един от тях научи дадена концепция, всички да я разберат.

Освен това, имайки способността да обработват тези огромни количества данни, AI системите са способни да откриват зависимости и тенденции, които са скрити за нас, точно както лекар, който е излекувал 10 000 пациенти, е в състояние да открие повече зависимости и да направи заключения с много по-голяма точност, отколкото лекар, който е лекувал само хиляда.

Ако изкуственият интелект е фундаментално различен от нашия, то тогава би следвало да приемем, че не можем (или не бива) да го сравняваме със себе си.

Според Хинтън е „напълно възможно човечеството да е само преходен етап в еволюцията на интелигентността“, с други думи, ние като биологичен интелект създаваме нова „изкуствена форма на интелигентност“, която, учейки се от нас и усвоявайки всичко, създадено от нас, ще достигне нива на интелигентност и ефективност, непонятни за човешкия мозък.

Тези неща разбират. И тъй като те разбират, трябва сериозно да помислим какво ще се случи в резултат от това. А ние просто не знаем

– сподели Хинтън в неотдавнашно интервю за „CBS 60 минути“.

Според него една от най-големите опасности е, че „системите могат да започнат да пишат свой собствен код, да се модифицират и да избягат от нашия контрол“

Той също така изрази мнение, че е „възможно да погледнем назад и да видим, че това е бил един вид повратен момент, когато човечеството е трябвало да вземе решение дали да продължи да развива тези технологии или не“

Намираме се в период на голяма несигурност, в който сме изправени пред предизвикателства, пред които не сме се изправяли досега. Когато навлизаме в непозната територия, често допускаме грешки, но с тази технология е недопустимо да сгрешим

– предупреждава „Кръстникът на изкуствения интелект“.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: