OpenAI ChatGPT, Google Bard и Microsoft Bing AI невероятно популярны благодаря своей способности быстро генерировать большие объемы текста и могут быть убедительно человеческими, но «галлюцинация» ИИ, также известная как придумывание вещей, представляет собой большую проблему с этими чат-ботами. К сожалению, предупреждают эксперты, так, вероятно, будет всегда.
Новый отчет от Ассошиэйтед Пресс подчеркивает, что проблему конфабуляции модели большого языка (LLM) может быть не так легко решить, как утверждают многие основатели технологий и сторонники ИИ, по крайней мере, по словам профессора Вашингтонского университета (UW) Эмили Бендер, профессор лингвистики в UW’s Computational Linguistics Лаборатория.
«Это невозможно исправить», — сказал Бендер. «Это присуще несоответствию между технологией и предлагаемыми вариантами использования».
По словам президента Jasper AI Шейна Орлика, в некоторых случаях проблема создания вещей на самом деле является преимуществом.
«Галлюцинации на самом деле являются дополнительным бонусом», — сказал Орлик. «У нас постоянно есть клиенты, которые рассказывают нам, как они пришли к идеям — как Джаспер создал истории или ракурсы, о которых они никогда бы не подумали сами».
Точно так же галлюцинации ИИ очень важны для создания изображений ИИ, и в результате такие модели, как Dall-E и Midjourney, могут создавать поразительные изображения.
Однако для генерации текста проблема галлюцинаций представляет собой реальную проблему, особенно когда речь идет о репортажах, где точность имеет решающее значение.
“[LLMs] предназначен, чтобы сделать вещи. Это все, что они делают, — сказал Бендер. «Но поскольку они придумывают вещи только тогда, когда текст, который они выдавливают, интерпретируется как что-то, что мы считаем правильным, это происходит случайно», — сказал Бендер. «Даже если их можно настроить так, чтобы они были правильными большую часть времени, они все равно будут иметь состояния ошибок — и ошибки, вероятно, будут в тех случаях, когда человеку, читающему текст, труднее их заметить, потому что они более неясны. “
К сожалению, когда у тебя есть только молоток, весь мир может выглядеть как гвоздь.
LLM — это мощные инструменты, которые могут делать замечательные вещи, но предприятия и технологическая отрасль должны понимать, что только потому, что что-то мощное, не означает, что это хороший инструмент для использования.
Молоток — подходящий инструмент для разрушения тротуара и асфальта, но вы не станете брать его с собой в археологические раскопки. Похоже на введение чат-бота с искусственным интеллектом авторитетные новостные организации и продвигать эти инструменты как инновацию, экономящую время. для журналистов — это фундаментальное непонимание того, как мы используем язык для передачи важной информации. Просто спроси недавно попавшие под санкции адвокаты, которые были уличены в использовании сфабрикованного прецедентного права производится чат-ботом с искусственным интеллектом.
Как заметил Бендер, LLM построен с нуля, чтобы предсказывать следующее слово в последовательности на основе подсказки, которую вы ему даете. Каждому слову в его обучающих данных был присвоен вес или процент, в соответствии с которым оно будет следовать за данным словом в данном контексте. Чего эти слова не ассоциировали с собой, так это фактического значения или важного контекста, обеспечивающего точность вывода. Эти великие языковые модели — великолепные мимики, которые понятия не имеют, что они на самом деле говорят, и обращение с ними, как с чем-либо еще, обязательно навлечет на вас неприятности.
Эта слабость заложена в самом LLM, и, хотя «галлюцинации» (хитрый технический лепет, призванный скрыть тот факт, что эти модели ИИ просто производят ложную информацию, претендующую на достоверность) могут быть уменьшены в будущих итерациях, они не могут быть исправлены навсегда, поэтому всегда есть риск ошибиться.