Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Лукашенко подписал закон, который вводит ответственность за «ряд новых правонарушений»
  2. На валютном рынке зафиксировали ситуацию, которой не было почти три года. Что происходит в обменниках
  3. Цены на эти квартиры в Минске улетают в космос — эксперты рассказали подробности
  4. «Опасная эскалация». В ООН призвали Беларусь приостановить введение в действие подписанного накануне Лукашенко закона
  5. «Будете картошку перебирать, его позовите!» Экс-министр внутренних дел Караев проинспектировал фермы — получилась пародия на Лукашенко
  6. «Сенсационные результаты». Эксперты рассказали, кто контролирует рынок новых автомобилей в Беларуси
  7. Синоптики рассказали, когда придет похолодание
  8. На аукцион выставили ТЦ известного бизнесмена, который признан политзаключенным. Его задержали в аэропорту после возвращения в Беларусь
  9. Власти попросили внести изменения для водителей
  10. «Отвечали, что все замечательно». Что не так с мотодельтапланом, который разбился под Минском и унес жизни двух человек
  11. Офис студии ZROBIM architects работает. Узнали, что интересовало силовиков
  12. «Она была спортивной девушкой». Что известно о погибшей пассажирке упавшего дельтаплана


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».