Представете си бъдеще, в което редовно взаимодействаме с редица усъвършенствани асистенти с изкуствен интелект (AI), и в което милиони асистенти взаимодействат помежду си от наше име. Тези преживявания и взаимодействия вероятно скоро ще станат част от нашето ежедневие, пишат учени от Google DeepMind в статия, озаглавена „Етиката на усъвършенстваните асистенти с изкуствен интелект (The ethics of advanced AI assistants)

Според тях, и не само, нова вълна от AI агенти и асистенти „ще планират и изпълняват широк спектър от действия в съответствие с целите на човека“. Те биха могли да добавят огромна стойност към живота на хората и обществото, служейки като творчески партньори, научни анализатори, образователни наставници и др., споделят авторите.

Но за постигането на тези цели, AI асистентите вероятно ще разполагат със значителна степен на автономност при планирането и изпълнението на различни задачи. Така, например, хората ще могат да разчитат на тях за управлението на бизнес или лични ангажименти, организирането на почивки и справянето с редица ежедневни дейности.

Но с по-голямата автономност, според авторите, ще се увеличи рискът от инциденти, причинени от неясни или неправилно изтълкувани инструкции, както и вероятността асистентите да предприемат действия, които не съответстват на нашите ценности и интереси. Освен това, колкото по-автономни са тези агенти, толкова по-голям би бил потенциалът за злоупотреби в голям мащаб, като например разпространение на дезинформация или кибератаки.

Поради това AI асистентите поставят нови предизвикателства, свързани с безопасността, съгласуването и злоупотребата

– споделят учените.

За да се справим с тези потенциални рискове, твърдим, че трябва да се определят ограничения върху технологията и че ценностите на усъвършенстваните AI асистенти трябва да бъдат по-добре съобразени с човешките такива, както и с идеите и стандартите на обществото като цяло.

В доклада учените посочват, че възможността за общуване с изкуствения интелект на естествен език и склонността му да имитира човешкото поведение, може да накара потребителите да създадат неуместно близки или интимни отношения с AI асистентите.

Например, Hume AI наскоро представи „първия разговорен изкуствен интелект с емоционална интелигентност“ – система, много наподобяваща тази от филма „Тя (Her)“ с участието на Хоакин Финикс и Скарлет Йохансон.

A скорошни разработки в създаването на реалистични аватари, като тази от Microsoft и Alibaba, ни навяват на мисълта, че освен емоционален глас, асистентите на бъдещето ще имат и реалистично изглеждащи образи. Те дори биха изглеждали като напълно реалистични хора, веднъж интегрирани в добавената реалност (AR) на Apple или Meta, например.

Освен това с течение на времето тези асистенти със сигурност ще развият нови възможности и ще бъдат използвани по нови начини.

Тези промени пораждат редица предизвикателства, свързани взаимоотношенията между хората и изкуствения интелект, човешката същност и неприкосновеността на личния живот. Учените поставят въпроси като: Как можем да гарантираме, че потребителите могат надеждно да разпознават AI асистентите и да контролират своите взаимодействия с тях? Какво може да се направи, за да се гарантира, че потребителите няма да бъдат неправомерно повлияни или подведени с течение на времето?

А отговорите, според тях, се крият в обстойно изследване на взаимодействието между човека и изкуствения интелект с цел разработване на защитни мерки. Те могат да включват ограничения върху човекоподобните елементи в изкуствения интелект, за да се избегне емоционална или материална зависимост на хората, както и мерки за защита на неприкосновеността на личния живот на потребителите.

Изправени сме пред нова ера на технологична и обществена трансформация, предизвикана от развитието на усъвършенствани асистенти с изкуствен интелект.

– пише изследователският екип на Google DeepMind.

Решенията, които вземаме днес като изследователи, разработчици, политици и граждани, ще определят начина, по който тази технология ще се развива и внедрява в обществото.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: