Поддержать команду Зеркала
Беларусы на войне
  1. Лукашенко снова поднял «самую большую» проблему Беларуси. Он также высказался о рынке труда и зарплатах
  2. Как быстро россияне смогут сломить украинскую оборону и закрыть покровский «карман» — эксперты не готовы дать ответ и вот почему
  3. Беларусь ограничила движение литовских фур. Им разрешили пересекать границу только на одном участке (который для них закрыт)
  4. «Удивляюсь, насколько все схвачено». Поговорили с литовцем, который живет возле границы с Беларусью и наблюдает за контрабандистами
  5. Беларусь ввела запрет на перемещение по своей территории грузовых авто из ЕС, а также прицепов (полуприцепов) из Польши и Литвы
  6. «И помашем рукой». В Литве обсудили возможность обеспечить беларусам выезд из страны в условиях закрытой границы
  7. Лукашенко рассказал, что американцы требовали от него извиниться перед Литвой. Он ответил: «Пошли нах»
  8. «А у вас пересадки в крови заложены на генетическом уровне?» На границе Беларуси с Польшей резко увеличились очереди
  9. Лукашенко заявил, что Протасевич работал на беларусскую разведку. Роман прокомментировал это заявление «Зеркалу»
  10. На торги выставили «отжатую» недвижимость уехавшего за границу беларуса. Нашлись желающие купить ее — они устроили битву
  11. «Яндекс» представил новейший чат-бот «Алиса AI». Спросили у него, почему Лукашенко так долго у власти и чей Крым — результат неожиданный


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».