Reka, стартъп за изкуствен интелект със седалище в Сан Франциско, основан от бивши изследователи на DeepMind, Google и Meta, представи нов мултимодален езиков модел, наречен Core.

Компанията твърди, че „Core е модел от най-висок клас, който осигурява водеща в индустрията производителност в широк спектър от задачи, включващи текст, изображения, видео и аудио“. Моделът е ефективно обучен от нулата с помощта на хиляди графични процесори (GPUs) за период от няколко месеца, посочват от компанията, като не разкриват точния брой параметри на модела. И Тай, главен учен и съосновател на Reka, написа в X (Twitter), че Core все още се „усъвършенства (обучението не е приключило), но екипът е впечатлен от представянето досега“.

Според сравнителните тестове, представени от компанията, Core е съпоставим с най-добрите модели на пазара, в това число GPT-4 на OpenAI, Claude от Anthropic и Gemini на Google.

Source: Reka
Rankings on Human Evaluation for Multimodal / Source: Reka

Едно от най-впечатляващите предимства на Core е неговото мултимодално разбиране на изображения и видео.

Това не е просто езиков модел от ново поколение – той притежава мощно контекстуализирано разбиране на изображения, видео и аудио

– споделят от компанията.

Source: Reka

Core разполага и с голям контекстен прозорец от 128 хил. токена, което му позволява да приема и обработва голямо количество информация. Това, съчетано с превъзходните му способности за разсъждение, включително езикови и математически, според компанията го прави подходящ за сложни задачи, изискващи задълбочен анализ.

Моделът е наличен в чатбот приложението Poe, чрез API, а също така е достъпен и за клиентите на Snowflake и Oracle Cloud Infrastructure.

Последвайте ни в социалните мрежи – FacebookInstagramX и LinkedIn!

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Абонирайте се за нашите седмични бюлетини

Получавайте всяка неделя в 10:00ч последно публикуваните в сайта статии

Бюлетини: