На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Поболтаем

52 171 подписчик

Свежие комментарии

  • Акимова Татьяна
    Гросси-американский шпион, которому доверять нельзя!!!Глава МАГАТЭ приз...
  • Акимова Татьяна
    На кой черт нужен этот шпион Гросси?Глава МАГАТЭ выра...
  • Акимова Татьяна
    В Питере тоже надо делать.И у больниц тоже, а то везде парковки платные при Беглове.В Москве хотят ув...

OpenAI раскрыла причину «галлюцинаций» у ИИ

ChatGPT / © OpenAI В недавно опубликованной статье группа исследователей OpenAI сообщила, что модели дают ошибочные ответы или «выдумывают» их, потому что при создании они вынуждены предугадывать результат. «Большие языковые модели оптимизированы для того, чтобы хорошо сдавать тесты, а угадывание в неопределенных ситуациях повышает результаты теста», — говорится в статье.

Традиционно выходные данные ИИ оцениваются просто: за правильный ответ — награда, за неправильный — наказание. Поэтому модель чаще делает догадку, потому что она может быть правильной, чем признает, что не знает ответа. Из-за «естественного статистического давления» ИИ склонны придумывать ответ, вместо того чтобы признать свое незнание. В будущем многое будет зависеть от того, удастся ли эту проблему исправить. OpenAI предлагает простое решение: перенастроить стимулы. Нужно поощрять адекватное проявление неуверенности и не наказывать за признание неизвестного. Это может уменьшить «галлюцинации» и открыть путь к более сложным языковым моделям с богатой прагматической компетенцией. Как эти корректировки проявятся в реальном мире, пока неизвестно.

 

Ссылка на первоисточник
наверх