Была ли реклама OpenAI GPT-4o гугл-троллем?

OpenAI удалось отвлечь внимание Google за несколько недель до крупнейшего события года в Google (Google I/O). Когда появился большой анонс, все, что им нужно было показать, это языковую модель, которая была немного лучше предыдущей с «магической» частью, даже не на стадии альфа-тестирования.

OpenAI, возможно, и оставил у пользователей ощущение, будто мама получила пылесос на День матери, но ему определенно удалось свести к минимуму внимание прессы к важному событию Google.

Буква О

Первый намек на то, что тут хоть немного троллинга, это название новой модели GPT, 4 «о» с буквой «о», как в названии гугловского мероприятия I/O.

OpenAI говорит, что буква O означает Omni, что означает все, но похоже, что у этого выбора есть подтекст.

GPT-4o перепродан как по волшебству

Сэм Альтман в твитнуть В пятницу перед объявлением он обещал «новые вещи», которые показались ему «волшебством»:

«Не gpt-5, не поисковая система, но мы усердно работаем над некоторыми новыми вещами, которые, как мы думаем, людям понравятся! Для меня это похоже на волшебство».

Соучредитель OpenAI Грег Брокман написал в Твиттере:

«Представляем GPT-4o, нашу новую модель, которая может обрабатывать текст, аудио и видео в режиме реального времени.

Он чрезвычайно универсален, с ним интересно играть, и он является шагом к гораздо более естественной форме взаимодействия человека с компьютером (и даже взаимодействия человека с компьютером):».

В самом объявлении пояснялось, что предыдущие версии ChatGPT использовали три модели для обработки аудиовхода. Одна модель для преобразования аудиовхода в текст. Вторая модель для выполнения задачи и вывода ее текстовой версии, а также третья модель для преобразования вывода текста в аудио. Прорыв GPT-4o заключается в том, что теперь он может обрабатывать ввод и вывод аудио в рамках одной модели и выводить все это за время, необходимое человеку, чтобы прослушать и ответить на вопрос.

ЧИТАТЬ   OpenAI нужно 15 секунд аудио, чтобы его ИИ смог клонировать голос | Цифровые тенденции

Но проблема в том, что аудио часть еще не в сети. Они все еще работают над тем, чтобы ограждение заработало, и пройдут недели, прежде чем альфа-версия будет выпущена для тестирования нескольким пользователям. Можно ожидать, что в альфа-версиях будут ошибки, тогда как бета-версии обычно ближе к конечному продукту.

Вот как OpenAI объяснила досадную задержку:

«Мы понимаем, что аудиомодальности GPT-4o создают ряд новых рисков. Сегодня мы публично публикуем ввод и вывод текста и изображений. В ближайшие недели и месяцы мы будем работать над технической инфраструктурой, удобством использования посредством непрерывного обучения и безопасность, которая необходима для освобождения других модальностей.

Самая важная часть GPT-4o — аудиовход и выход — завершена, но уровень безопасности еще не готов к публичному выпуску.

Некоторые пользователи разочарованы

Неизбежно, что неполный и перепроданный продукт вызовет негативные эмоции в социальных сетях.

Инженер искусственного интеллекта Мазияр Панахи (Профиль в LinkedIn) написал в Твиттере его разочарование:

«Я протестировал новый GPT-4o (Omni) в ChatGPT. Я не впечатлен! Нисколько! Быстрее, дешевле, мультимодально — это не для меня.
Переводчик, это все, что меня волнует, и это так же лениво, как и раньше!

Он последовал за с:

«Я понимаю, что для стартапов и предприятий это очень привлекательно, дешевле, быстрее, надежнее и т. д. Но я использую только Chat, и там все почти так же. По крайней мере, для Data Analytics Assistant.

Я также не верю, что получу что-то большее за свои 20 долларов. Не сегодня!»

В Facebook и X есть и другие, кто выразил схожее мнение, хотя многие другие были довольны тем, что, по их мнению, является улучшением скорости и стоимости использования API.

ЧИТАТЬ   Есть ли в Google Pixel Watch 2 беспроводная зарядка? | Цифровые тенденции

OpenAI превзошел GPT-4o по продажам?

Поскольку GPT-4o находится в незавершенном состоянии, трудно не упустить впечатление, что релиз был приурочен к выпуску Google I/O и отвлек его от него. Выпуск его накануне важного дня Google с недоделанным продуктом мог непреднамеренно создать впечатление, что GPT-4o в его нынешнем состоянии представляет собой незначительное итеративное улучшение.

В нынешнем состоянии это не является революционным шагом вперед, но как только аудиочасть модели выйдет из стадии альфа-тестирования и пройдет стадию бета-тестирования, можно будет начать говорить о революциях в основных языковых моделях. Но когда это произойдет, Google и Anthropic, возможно, уже водрузят флаг на этой горе.

Заявление OpenAI рисует тусклую картину новой модели, обеспечивающей производительность на уровне GPT-4 Turbo. Единственными положительными моментами являются значительные улучшения в языках, отличных от английского, и для пользователей API.

OpenAI объясняет:

  • «Он соответствует производительности GPT-4 Turbo для текста и кода на английском языке, со значительным улучшением для текста на неанглоязычном языке, при этом он намного быстрее и на 50% дешевле в API».

Вот рейтинги по шести тестам, показывающие, что GPT-4o едва опережает GPT-4T в большинстве тестов, но отстает от GPT-4T в важном тесте на понимание прочитанного.

Вот баллы:

  • MMLU (Массовое многозадачное понимание языка)
    Это эталон точности многозадачности и решения задач по более чем пятидесяти предметам, таким как математика, естествознание, история и право. GPT-4o (оценка 88,7) немного опережает GPT4 Turbo (86,9).
  • GPQA (тест вопросов и ответов Google для выпускников)
    Это 448 вопросов с несколькими вариантами ответов, написанных экспертами в различных областях, таких как биология, химия и физика. GPT-4o набрал 53,6 балла, немного превзойдя GPT-4T (48,0).
  • Математика
    GPT 4o (76,6) превосходит GPT-4T на четыре балла (72,6).
  • HumanEval
    Это эталон кодирования. GPT-4o (90,2) немного превосходит GPT-4T (87,1) примерно на три балла.
  • MGSM (тест по математике в многоязычной начальной школе)
    Это тестирует математические навыки LLM на уровне начальной школы на десяти разных языках. GPT-4o набрал 90,5 против 88,5 у GPT-4T.
  • DROP (дискретное рассуждение по абзацам)
    Это тест, состоящий из 96 000 вопросов, который проверяет понимание языковой модели по содержанию абзацев. GPT-4o (83,4) почти на три балла ниже, чем GPT-4T (86,0).
ЧИТАТЬ   Стоит ли покупать матрас Cocoon by Sealy Chill на распродаже «Черная пятница»?

OpenAI троллил Google GPT-4o?

Учитывая провокационное название модели с буквой «о», трудно не подумать, что OpenAI пытается перехватить внимание средств массовой информации в преддверии важной конференции Google по вводу-выводу. Было ли это намеренно или нет, OpenAI удалось свести к минимуму внимание на предстоящей конференции Google по поиску.

Стоит ли языковая модель, едва превосходящая по производительности свою предшественницу, всю ту шумиху и внимание средств массовой информации, которые она получила? Ожидаемое объявление доминировало в новостях о большом событии Google, поэтому для OpenAI ответ явно положительный, оно того стоило.

Рекомендованное изображение: Shutterstock/BeataGFX

Source