Поддержать команду Зеркала
Беларусы на войне
  1. Можно ли православным отмечать Рождество 25 декабря, и что тогда делать 7 января? Спросили у священника
  2. Дочь отвечает за отца? Власти забрали дом ребенка основателя «Нового зрения» по уголовному делу ее родителя
  3. «У них другое видение, мы это уже понимаем». Каким будет политическое будущее команды Бабарико — рассуждает Артем Шрайбман
  4. На военном факультете БГУИР висит флаг ЧВК Вагнера. Снимки случайно опубликовал сам университет
  5. Эксперты рассказали, чего добивается Россия в переговорах, чтобы получить более выгодное положение для повторного вторжения в будущем
  6. Беларусу, воевавшему в Украине на стороне РФ и вернувшемуся по обмену пленными, на родине дали не менее 10 лет колонии
  7. Путин еще в 2001-м говорил Бушу, что Украина «веками была частью России», и грозил проблемами. В США опубликовали стенограммы


/

60-летний американский пенсионер попал в больницу с бредовыми идеями о том, что его травит сосед. Оказалось, что он сам себя отравил бромом после консультации с ChatGPT. Его история была опубликована в журнале Annals of Internal Medicine.

Изображение используется в качестве иллюстрации. Фото: x.com/OpenAI
Изображение носит иллюстративный характер. Фото: x.com/OpenAI

Мужчина изучал вопросы питания и решил исключить хлор из своей диеты, считая его вредным. Он обратился к ChatGPT с вопросом, чем можно заменить поваренную соль (хлорид натрия). Искусственный интеллект предложил среди прочего бромид натрия.

В течение трех месяцев мужчина заменял обычную соль на бромид натрия, который купил в интернете. Из-за этого у него развились проблемы с координацией, постоянная жажда, усталость и бессонница, появились высыпания на лице.

Мужчина сам обратился в отделение токсикологии, жалуясь на отравление. В своих проблемах он обвинял соседа. Обследование показало у него высокий уровень бромида в крови. В течение первых 24 часов после поступления у него усилилась паранойя, а также слуховые и зрительные галлюцинации, которые после попытки побега привели к принудительному психиатрическому лечению в связи с тяжелой инвалидностью.

«К сожалению, у нас нет доступа к журналу его разговоров с ChatGPT, и мы никогда не сможем точно узнать, какой именно ответ он получил, поскольку индивидуальные ответы уникальны и формируются на основе предыдущих данных, — отметили ученые. Однако когда мы спросили ChatGPT 3.5, чем можно заменить хлорид, мы также получили ответ, включающий бромид. Хотя в ответе говорилось, что контекст важен, в нем не было конкретного предупреждения о вреде для здоровья и не было вопроса о том, почему мы хотели это узнать, и как, по нашему мнению, поступил бы медицинский работник».

Мужчина провел в больнице три недели, после чего его выписали.