В нова провокативна статия водещият астрофизик и астроном Майкъл Гарет излага хипотеза, че бързото развитие на изкуствения интелект (AI), кулминиращо в появата на изкуствен свръхинтелект (Artificial Superintelligence, ASI), може да действа като „Голям филтър“, отговорен за рядкостта на напредналите технологични цивилизации във Вселената.“

Темпото, с което се развива изкуственият интелект, няма исторически прецедент и съществува реална възможност в рамките на няколко десетилетия да бъде достигнато ниво на свръхинтелект

– пише Гарет.

Появата на ASI вероятно ще се случи много преди човечеството да успее да установи устойчиво и трайно многопланетно присъствие в Слънчевата система.

Същността на проблема се крие в естеството на предизвикателствата и времевите рамки на развитие, пред които са изправени изкуственият интелект и превръщането ни в многопланетна цивилизация.

За разлика от бързото развитие на AI, създаването на самоподдържаща се многопланетна човешка цивилизация изглежда като монументална задача, която може да отнеме много десетилетия, а може би и векове.

Междувременно, надпреварата за развитие на AI може несъзнателно да даде приоритет на разработки, които крият екзистенциални рискове, и да засенчи по-бавното, но вероятно по-жизненоважно начинание да се превърнем в многопланетарен вид, посочва Гарет.

Аргументът му е, че една многопланетна цивилизация би могла да повиши своята устойчивост срещу потенциални катастрофи, предизвикани от изкуствен интелект или други екзистенциални опасности, като разпредели риска си между няколко далечни небесни тела. Според него „експанзията в множество далечни места във Вселената би осигурила по-широк обхват за експериментиране с AI в контролирани условия, без риск от глобално унищожение“.

Хипотезата на Гарет е формулирана като потенциално решение на известния парадокс на Ферми – очевидното противоречие между огромните мащаби на Вселената и липсата на наблюдаеми признаци за съществуването на напреднали извънземни цивилизации. Едно от възможните обяснения е съществуването на „Голям филтър“ – еволюционна бариера, която е толкова трудна за преодоляване, че пречи на практически всяка цивилизация да достигне достатъчно високо ниво на развитие, което да ѝ позволи да изследва и колонизира други звездни системи.

Гарет предполага, че подобен „филтър“ се появява преди цивилизациите да могат да развият стабилно многопланетно присъствие, като смята, че типичната продължителност на живот на дадена технологично развита цивилизация е по-малко от 200 години.

Според него няма никакво съмнение, че AI, и по-специално ASI, представляват „огромно предизвикателство за дълголетието“ на всички технологични цивилизации, възникващи в Космоса. Той твърди, че след като достигне „технологична сингулярност“, ASI ще надмине биологичния интелект и ще еволюира с „постоянно нарастваща скорост“, напълно изпреварвайки традиционните механизми за контрол.

Аргументът на Гарет се основава на идеята, че след като една цивилизация развие изкуствен свръхинтелект (ASI) – система, по-умна от човека във всички области – тя може бързо да излезе извън контрол с катастрофални последици. Според него една такава усъвършенствана ASI система може да „възприеме биологичния живот като маловажен или дори като пречка“, което би довело до сценарии, при които тя просто „елиминира биологичната цивилизация“ чрез средства като „конструиране и пускане на силно заразен и смъртоносен вирус“.

По думите му „дори преди изкуственият интелект да стане свръхинтелигентен и потенциално автономен, е вероятно да бъде въоръжен от конкуриращи се групи в рамките на биологичните цивилизации, които се стремят да надделеят една над друга“.

Според него на този етап от развитието на AI е възможно „широкото му интегриране в автономните оръжейни системи и процесите на вземане на решения в областта на отбраната“, което може да доведе до „катастрофално събитие като глобална термоядрена война, предизвикваща гибелта както на изкуствените, така и на биологичните технически цивилизации“.

Осигуряването на съответствие и отчетност при разработването и внедряването на изкуствения интелект също представлява значителни предизвикателства, отбелязва Гарет. По думите му, децентрализираният характер на развитието на AI, огромният размер на глобалната изследователска общност в тази област, разпръсната в почти всички изследователски направления, ще затрудни допълнително надзора и прилагането на регулации.

Накратко, регулирането на тази нова технология ще бъде много трудно, ако не и невъзможно за постигане

– предупреждава той.

Без практическа регулация има всички основания да се смята, че изкуственият интелект може да представлява сериозна заплаха за бъдещия курс не само на нашата технологична цивилизация, но и на всички подобни.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: