Изкуственият интелект без съмнение ще промени света. Един въпрос обаче все още остава без отговор – каква по-точно ще бъде тази промяна? Стъпили вече почти с двата крака през прага на нова технологична епоха е редно да се замислим какво би се случило, ако нещата не потръгнат в желаната от нас посока.

Негативните последици от AI се наблюдават все по-често дори и днес. Злоупотребата с дълбоки фалшификати (deepfakes) е един от най-ярките примери за това как в грешните ръце тази технология може да доведе до множество проблеми. Редица учени смятат, че изкуствен интелект на човешко ниво или така нареченият AGI (Artificial General Intelligence) ще бъде постигнат още този век. Такъв вид технология обаче крие рискове, които дори и не може да си представим.

В отговор на тези опасения, имена като Сам Олтман (CEO, OpenAI), Демис Хасабис (CEO, Google DeepMind), Дарио Амодей (CEO, Anthropic) и много др. миналата година поставиха подписите си под изявление гласящо:

Намаляването на екзистенциалния риск, свързан с изкуствения интелект, трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война.

Source: Center for AI Safety (CAIS)

В световен мащаб се обръща все по-голямо внимание на безопасното разработване, внедряване и използване на изкуствен интелект. Въпреки че в България цялостният интерес към AI нараства с всеки изминал ден, все още малко хора са наясно с рисковете и необходимите мерки за безопасност.

По тази причина Александър Ангелов, който изучава изкуствен интелект в Гронингенския университет в Холандия, подкрепен от глобални програми като AI Safety Initiative Groningen, BlueDot Impact и The European Network for AI Safety, стартира AI Safety Bulgaria – българска организация, която има за цел „да повиши осведомеността за потенциалните рискове, свързани с усъвършенствания изкуствен интелект, като същевременно насърчава отговорните иновации“.

Тъй като в България няма подобна инициатива и интересът към тази област нараства, основаването на AI Safety Bulgaria се превърна в логично и жизненоважно начинание

– споделя Александър.

Осъзнавайки, че отговорното управление на изкуствения интелект е наша колективна отговорност, се почувствах длъжен да разпространявам информация за рисковете и да насърчавам среда, в която хората могат активно да допринасят за осигуряване на безопасността на изкуствения интелект.

За да повиши осведомеността сред българските граждани относно рисковете от изкуствения интелект и методите за тяхното намаляване, организацията предлага безплатни курсове в две основни направления: „AI Alignment“ и „AI Governance“.

Source: AI Safety Bulgaria

„AI Alignment“ е дисциплина, която се занимава с привеждането на целите и действията на AI системите в съответствие с човешките ценности и етични норми.

„AI Governance“ от друга страна е законово ориентирана дисциплина, която включва създаването на механизми, закони и стандарти за гарантиране на безопасността на AI системите.

Ако желаете да научите повече за цялостната идея за осигуряване на безопасен изкуствен интелект и дори да разберете как вие самите можете да допринесете за това, можете да посетите уебсайта на AI Safety Bulgaria. Със сигурност това е една от най-важните теми на бъдещето, която заслужава вниманието и ангажираността на всеки от нас.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: