През последните дни OpenAI, компанията зад ChatGPT, беше разтърсена от поредица оставки на ключови фигури, което породи множество въпроси относно приоритетите и бъдещата посока на организацията.
Драмата започна в сряда, когато съоснователят и главен учен на OpenAI, д-р Иля Суцкевер, и изследователят в сферата на безопасността на AI, Ян Лейке, подадоха оставка. През последната година двамата ръководеха Superalignment екипа на OpenAI, който бе натоварен със задачата да разработва системи и процеси за управление на свръхинтелигентни AI модели, които са много по-умни от нас. По това време OpenAI заяви, че ще отдели 20% от изчислителната си мощ за инициативата в продължение на четири години.
От ноември миналата година – когато бордът на OpenAI уволни и преназначи главния изпълнителен директор Сам Алтман, поне още петима от най-загрижените за безопасността служители на компанията са напуснали или са били уволнени.
В петък Ян Лейке изрази своите сериозни опасения относно приоритетите на OpenAI в поредица от постове в социалната мрежа X (Twitter). Той е един от малкото, които досега говорят открито и изразяват притеснения относно настоящата посока на развитие на организацията. Неговите опасения са свързани с недостатъчното внимание към сериозните последици, които развитието на изкуствения общ интелект (AGI) може да има върху човечеството. По думите му, през последните години компанията пренебрегва безопасността за сметка на разработването на „лъскави продукти“.
OpenAI трябва да се превърне в компания, която поставя безопасността на първо място при разработването на AGI
– написа той.
Създаването на машини, които са по-умни от хората, е опасно по своята същност начинание. OpenAI поема огромна отговорност от името на цялото човечество.
Building smarter-than-human machines is an inherently dangerous endeavor.
— Jan Leike (@janleike) May 17, 2024
OpenAI is shouldering an enormous responsibility on behalf of all of humanity.
Според него, „OpenAI може би е на грешен път“. Той разкри, че през последните месеци екипът му е „плавал срещу вятъра“ и често се е борил за изчислителна мощност. Според него, „много по-голяма част от мощността трябва да се насочи към подготовката за следващите поколения модели, тяхната сигурност, мониторинг, готовност, безопасност, устойчивост, (свръх)съгласуване, поверителност, въздействие върху обществото и други свързани теми“. Той предупреждава, че тези проблеми са „доста трудни за разрешаване“, а OpenAI не е на правилната траектория, за да ги реши.
Трябва да започнем да разглеждаме изключително сериозно последиците от AGI и да се подготвим за тях по най-добрия възможен начин
– предупреждава Лейке.
Само тогава ще можем да гарантираме, че AGI ще бъде от полза за цялото човечество.
We are long overdue in getting incredibly serious about the implications of AGI.
— Jan Leike (@janleike) May 17, 2024
We must prioritize preparing for them as best we can.
Only then can we ensure AGI benefits all of humanity.
В своето обръщение към бившите си колеги той заяви:
Действайте със сериозността, подходяща за това, което изграждате. Вярвам, че можете да „доставите“ културната промяна, която е необходима. Разчитам на вас.
To all OpenAI employees, I want to say:
— Jan Leike (@janleike) May 17, 2024
Learn to feel the AGI.
Act with the gravitas appropriate for what you're building.
I believe you can "ship" the cultural change that's needed.
I am counting on you.
The world is counting on you.
:openai-heart:
Няколко часа по-късно, в отговор на публикациите на Лейке, главният изпълнителен директор на OpenAI, Сам Алтман, изрази своята признателност за работата му в областта на безопасността и добави:
Той е прав, че имаме още много работа за вършене и сме решени да я свършим. Ще предоставим повече информация през следващите няколко дни.
i'm super appreciative of @janleike's contributions to openai's alignment research and safety culture, and very sad to see him leave. he's right we have a lot more to do; we are committed to doing it. i'll have a longer post in the next couple of days.
— Sam Altman (@sama) May 17, 2024
🧡 https://t.co/t2yexKtQEk
Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!