Open AI выпустили новую модель ChatGPT 4o (“o” означает “omni” - мультимодальная).
Что нового в ChatGPT 4o:
- Лучше стал понимать иностранные языки, переводить стал лучше, поддерживает 50 языков
- Быстрее ChatGPT-4, лучше в программировании и на 50% дешевле в API.
- Будет программа для Mac, ее показали, но непонятно, когда выпустят в массы
- Уже понимает видео, что на нем и тд.
- Озвучивает ответы
- В приложении голосовой ассистент очень похож на человека: отвечает без задержки, понимает эмоции, сам меняет интонации по ситуации и шутит. Также ассистент может переводить речь с другого языка в рилтайме
- И главное! ChatGPT 4о и GPT Store стали бесплатными
Однако, по наблюдениям, доступ быстрее получают платные подписчики ChatGPT. Для бесплатных пользователей есть ограничение по запросам в GPT-4o, в зависимости от использования и спроса, когда лимит будет достигнут, ChatGPT 4o переключится на модель 3.5.
GPT-4o («o» от «omni») — это шаг к гораздо более естественному взаимодействию человека с компьютером: он принимает в качестве входных данных любую комбинацию текста, аудио, изображения и видео и генерирует любую комбинацию текста, аудио и изображения. выходы. Он может реагировать на аудиовходы всего за 232 миллисекунды, в среднем за 320 миллисекунд, что аналогично времени реакции человека.(Открывается в новом окне)в разговоре. Он соответствует производительности GPT-4 Turbo для текста на английском языке и кода, со значительным улучшением для текста на неанглийских языках, а также намного быстрее и на 50 % дешевле в API. GPT-4o особенно лучше воспринимает изображение и звук по сравнению с существующими моделями.
#gpt #ai #openai
Open AI выпустили новую модель ChatGPT 4o (“o” означает “omni” - мультимодальная).
Что нового в ChatGPT 4o:
- Лучше стал понимать иностранные языки, переводить стал лучше, поддерживает 50 языков
- Быстрее ChatGPT-4, лучше в программировании и на 50% дешевле в API.
- Будет программа для Mac, ее показали, но непонятно, когда выпустят в массы
- Уже понимает видео, что на нем и тд.
- Озвучивает ответы
- В приложении голосовой ассистент очень похож на человека: отвечает без задержки, понимает эмоции, сам меняет интонации по ситуации и шутит. Также ассистент может переводить речь с другого языка в рилтайме
- И главное! ChatGPT 4о и GPT Store стали бесплатными
Однако, по наблюдениям, доступ быстрее получают платные подписчики ChatGPT. Для бесплатных пользователей есть ограничение по запросам в GPT-4o, в зависимости от использования и спроса, когда лимит будет достигнут, ChatGPT 4o переключится на модель 3.5.
GPT-4o («o» от «omni») — это шаг к гораздо более естественному взаимодействию человека с компьютером: он принимает в качестве входных данных любую комбинацию текста, аудио, изображения и видео и генерирует любую комбинацию текста, аудио и изображения. выходы. Он может реагировать на аудиовходы всего за 232 миллисекунды, в среднем за 320 миллисекунд, что аналогично времени реакции человека.(Открывается в новом окне)в разговоре. Он соответствует производительности GPT-4 Turbo для текста на английском языке и кода, со значительным улучшением для текста на неанглийских языках, а также намного быстрее и на 50 % дешевле в API. GPT-4o особенно лучше воспринимает изображение и звук по сравнению с существующими моделями.
#gpt #ai #openai