В четвъртък Stability AI представи Stable Diffusion 3 – най-новата версия на своя модел за генериране на изображения от текст.

Базираната в Лондон компания разработва AI модели за генериране на изображения от 2022 г. насам. Те се утвърдиха като по-отворена алтернатива на модели като DALL-E 3 на OpenAI. Моделите на Stable Diffusion могат да се изпълняват локално и да се настройват за различни цели.

От компанията отбелязват, че новият модел, който все още не е широко достъпен, генерира изображения с по-добро качество, работи по-добре с указания, свързани с множество обекти, и може да генерира по-прецизен текст – нещо, с което предишните модели на Stable Diffusion не се справяха добре.

Source: Stability AI

Stability също така поясни, че „фамилията от модели Stable Diffusion 3 варират от 800 милиона до осем милиарда параметри, осигурявайки на потребителите разнообразни възможности за мащабиране и качество“.

Главният изпълнителен директор на компанията, Емад Мостаке, написа в X, че моделът използва архитектура, подобна на Sora (новият модел за видео на OpenAI), и добави, че приема мултимодални входни данни.

През последните няколко месеца Stability AI пусна редица модели, включително за генериране на изображения, аудио, видео, 3D и код. Преди броени дни компанията представи Stable Cascade – нов модел за генериране на изображения от текст, базиран на нова архитектура.

Последвайте ни в социалните мрежи – Facebook, Instagram, X и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: