Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко дал прогноз на конец зимы. Синоптики с ним не согласны
  2. Очень, очень, очень холодно. Синоптик рассказал, какой будет погода в Беларуси на предстоящей неделе
  3. В Витебске десятки домов остались без отопления ночью в морозы. Аварию устранили к утру
  4. Пара сняла «бабушатник» и преобразила его за 700 долларов. Хозяева увидели результат и подняли аренду
  5. В кинотеатрах страны покажут фильм пропагандиста Азаренка. В «Беларусьфильм» его назвали «поистине уникальным произведением»
  6. Коронация откладывается. Арина Соболенко второй год подряд проиграла в финале Открытого чемпионата Австралии — рассказываем главное
  7. Золушка современной Беларуси. Как логопед из Шклова оказалась на верхушке империи развлечений, зарабатывающей миллионы
  8. Мария Колесникова ответила, поддерживает ли она по-прежнему Светлану Тихановскую
  9. Беларуска рассказала, что получила «повестку за неуборку снега» вокруг авто
  10. Ночью в воздушное пространство Польши залетели «объекты из Беларуси». Их отслеживали военные
  11. Беларуска открыла визу и отправилась в поездку, но не учла важную деталь, из-за которой могла остаться на пару часов на «нейтралке»
  12. В США заявили, что контроль над Донецкой областью — единственный нерешенный вопрос на мирных переговорах. В Кремле не согласны — ISW


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».