Поддержать команду Зеркала
Беларусы на войне
  1. Белый дом перепутал Бельгию с Беларусью и включил ее в список участников «Совета мира» Трампа
  2. «Жизнь людей стоит того, чтобы о них говорить, даже с Лукашенко». Интервью Марии Колесниковой Марине Золотовой
  3. Платежи по ЖКХ вырастут — Лукашенко подписал указ
  4. «Это куда более крепкий орешек». СМИ узнали еще одну страну, где США рассчитывают сменить власть до конца года
  5. В ОАЭ закончился первый раунд переговоров Украины, России и США
  6. Минсвязи вводит ограничение скорости для безлимитного мобильного интернета
  7. Эксперты рассказали, как Путин хочет использовать в своих целях созданный Трампом «Совет мира» и где возьмет необходимый миллиард
  8. Минский РНПЦ позвал на работу медсестер и санитарок через Threads. В соцсети спросили о зарплатах и ужаснулись: «Долго вы будете искать»
  9. Мужчина сделал колоноскопию и умер через три недели. Семья написала уже более 10 писем в госорганы
  10. Беларус яро поддерживал «русский мир», но кардинально поменял взгляды. Он рассказал «Зеркалу» историю своей трансформации
  11. «Если бы беларусский народ победил в 2020-м, российского „Орешника“ не было бы в Беларуси». Зеленский выступил с жесткой речью в Давосе
  12. Кремль не демонстрирует готовности к компромиссам по Украине — ISW
  13. «Это была рабочая схема». Выдворенная из Беларуси экс-политзаключенная рассказала, как участвовала в фальсификации выборов


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».