Поддержать команду Зеркала
Беларусы на войне
  1. Можно ли православным отмечать Рождество 25 декабря, и что тогда делать 7 января? Спросили у священника
  2. Путин еще в 2001-м говорил Бушу, что Украина «веками была частью России», и грозил проблемами. В США опубликовали стенограммы
  3. «Он не может отойти, это что-то личное». Почему Лукашенко так активно следит за событиями в демсилах — мнение Артема Шрайбмана
  4. Беларусу, воевавшему в Украине на стороне РФ и вернувшемуся по обмену пленными, на родине дали не менее 10 лет колонии
  5. На военном факультете БГУИР висит флаг ЧВК Вагнера. Снимки случайно опубликовал сам университет
  6. Эксперты рассказали, чего добивается Россия в переговорах, чтобы получить более выгодное положение для повторного вторжения в будущем
  7. На больших выходных в Беларуси объявили оранжевый уровень опасности. Каких сюрпризов от погоды стоит ждать
  8. «Як ты сюды патрапіў, рабочы?». Алесь Беляцкий рассказал, как к нему в колонию приезжал Роман Протасевич


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.