Поддержать команду Зеркала
Беларусы на войне
  1. «Дорожными знаками обозначаться не будут». В ГАИ появились новые системы фиксации — нарушители получат «письма счастья»
  2. «Большущее противоречие». Почему Литва, Латвия и Польша не правы, отказываясь запускать в Беларусь пассажирские поезда. Мнение
  3. Беларусы оценили попытку властей заставить их прекратить обсуждение приезда пакистанцев. Получилось грустно и метко
  4. Роман Протасевич, который не мог найти работу, все же нашел источник заработка
  5. Ситуация с курсом доллара в обменниках начала меняться
  6. Россия планирует изменить тактику для нового наступления в Украине летом и осенью 2025 года — ISW
  7. Трамп: Может быть Путин «не хочет останавливать войну, он просто тянет меня за собой, и с ним нужно поступить по-другому»
  8. Вскоре подорожают некоторые жилищно-коммунальные услуги
  9. Оздоровил за границей сотни тысяч детей, но сам умер от лейкемии. История человека, который спасал беларусов от последствий Чернобыля
  10. Власти хотят ввести новшества по пассажирским перевозкам
  11. Что будет с теми, кто в 2020-м выходил на протесты, когда закончится срок давности по «народной» 342-й статье? Спросили аналитика
  12. Для владельцев транспорта ввели очередное изменение — подробности
  13. «Детали разговора останутся в стенах Ватикана». Посланники Лукашенко и Тихановской встретились на похоронах папы римского


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».