На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Поболтаем

52 167 подписчиков

Свежие комментарии

  • Акимова Татьяна
    Гросси-американский шпион, которому доверять нельзя!!!Глава МАГАТЭ приз...
  • Акимова Татьяна
    На кой черт нужен этот шпион Гросси?Глава МАГАТЭ выра...
  • Акимова Татьяна
    В Питере тоже надо делать.И у больниц тоже, а то везде парковки платные при Беглове.В Москве хотят ув...

Люди больше не могут отличить голос ИИ от голоса реального человека

Кадр из фильма «Я, робот» / © Twentieth Century Fox Как выяснили ученые из Лондонского университета Королевы Марии (Queen Mary University of London) и Университетского колледжа Лондона (University College London), когда люди слушают человеческие голоса и их сгенерированные искусственным интеллектом версии, они не могут точно сказать, какие из них настоящие.

Результаты исследования опубликованы в журнале PLoS One.  Созданные с помощью искусственного интеллекта голоса используются, к примеру, в Siri и автоматизированных системах обслуживания клиентов. Они кажутся плоскими и искусственными. Однако новое исследование показало, что дипфейковые голоса, обученные на записях реальных людей, кажутся настолько же убедительными, как и настоящие. Участники исследования прослушали образцы 80 различных голосов — 40 из них были созданы с помощью искусственного интеллекта, еще 40 — реальные человеческие голоса. Ученые попросили определить, какие голоса являются настоящими. Участники исследования классифицировали как человеческие 41% голосов, сгенирированных с нуля. Это позволяет предположить, что в большинстве случаев их все еще можно отличить от реальных людей.  Однако 58% участников классифицировали дипфейковые голоса как человеческие. Настоящие голоса людей сочли реальными лишь 62% участников. Исследователи пришли к выводу, что нет статистически значимой разницы в способности отличать голоса реальных людей от их дипфейковых клонов. Авторы исследования отмечают, что это может иметь серьезные последствия для этики, авторского права и безопасности. Если преступники смогут использовать искусственный интеллект, чтобы клонировать чей-то голос, им будет проще обойти голосовую аутентификацию в банке или обманом заставить кого-то перевести деньги.

 

Ссылка на первоисточник
наверх