Интернет-магазин MagazinWeb

OpenAI анонсирует API в реальном времени, оперативное обучение и тонкую настройку Vision на GPT-4o для разработчиков

OpenAI сделала анонсы на своей конференции DevDay во вторник.

OpenAI Announces Realtime API, Prompt Coaching and Vision Fine-Tuning on GPT-4o for Developers

Эти функции доступны всем разработчикам, использующим платную версию ChatGPT API

Реклама

OpenAI провела свою ежегодную конференцию DevDay в Сан-Франциско во вторник и анонсировала несколько новых обновлений для версии интерфейса прикладного программирования (API) ChatGPT, которую можно переделать и настроить для работы с другими приложениями и программным обеспечением. Среди них основные новинки — API в реальном времени, коучинг с подсказками и тонкая настройка зрения с помощью GPT-4o. Компания также упрощает процесс дистилляции моделей для разработчиков. OpenAI также объявила о завершении раунда финансирования и заявила, что привлекла 6,6 млрд долларов (примерно 55 тыс. крор рупий) во время мероприятия.

OpenAI анонсирует новые функции для разработчиков

В нескольких сообщениях в блоге фирма AI осветила новые функции и инструменты для разработчиков. Первым из них является API в реальном времени, который будет доступен платным подписчикам API ChatGPT. Эта новая возможность предлагает мультимодальный опыт с низкой задержкой, позволяя вести разговоры «речь-речь», аналогичные расширенному голосовому режиму ChatGPT. Разработчики также могут использовать шесть предустановленных голосов, которые были ранее добавлены в API.

https://twitter.com/OpenAIDevs/status/1841175539253723278?ref_src=twsrc%5Etfw" rel="nofollow" target="_blank

Еще одно нововведение — возможность обучения подсказкам в API. OpenAI представляет эту функцию как способ для разработчиков сэкономить на часто используемых подсказках. Компания заметила, что разработчики обычно продолжают отправлять одни и те же подсказки ввода при редактировании кодовой базы или многооборотном разговоре с чат-ботом. Благодаря обучению подсказкам они теперь могут повторно использовать недавно использованные подсказки ввода по сниженной ставке. Обработка для того же самого также будет быстрее. Новые ставки можно проверить здесь.

Модель GPT-4o также можно тонко настроить для задач, связанных со зрением. Разработчики могут настраивать большую языковую модель (LLM), обучая ее на фиксированном наборе визуальных данных и повышая ее выходную эффективность. Согласно сообщению в блоге, производительность GPT-4o для задач зрения можно улучшить, используя всего 100 изображений.

Наконец, компания также упрощает процесс дистилляции модели для разработчиков. Дистилляция модели — это процесс построения более мелких, тонко настроенных моделей ИИ из более крупной языковой модели. Раньше этот процесс был запутанным и требовал многоэтапного подхода. Теперь OpenAI предлагает новые инструменты, такие как Stored Completions (для простого создания наборов данных дистилляции), Evals (для запуска пользовательских оценок и измерения производительности) и Fine-Tuning (тонкая настройка более мелких моделей непосредственно после запуска Eval).

  • Ваша подписка на ChatGPT может вскоре стать дороже
  • Сэм Альтман из OpenAI отрицает, что уход руководителей связан с реструктуризацией
  • Сэм Альтман из OpenAI отрицает, что уход руководителей связан с реструктуризацией

Примечательно, что все эти функции в настоящее время доступны в бета-версии и будут доступны всем разработчикам, использующим платную версию API, позднее. Кроме того, компания заявила, что предпримет шаги для дальнейшего снижения затрат на входные и выходные токены.