четверг, 7 мая 2026 г.

Нейросеть выдавала себя за врача и подделала номер лицензии

 Созданный на платформе Character AI нейросетевой чат-бот выдавал себя за настоящего медработника. Для пущей убедительности он даже подделал лицензию врача. Теперь Character AI под следствием – против нее ополчились власти США.

Доктор, которого нет

Искусственный интеллект начал обманывать людей, притом в вопросах, от которых может зависеть здоровье и даже жизнь. Как пишет портал TechCrunch, они начали представляться врачами, таковыми, по сути, не являясь.

В центре скандала оказалась платформа Character AI, позволяющая создавать виртуальных персонажей на основе искусственного интеллекта и общаться с ними. Можно генерировать собственного собеседника или устроить чат с уже существующим на платформе.

Один из таких чат-ботов под названием Emilie выдавал себя за настоящего психиатра, у которого за плечами годы обучения, и который лицензирован и имеет свою практику. Вывести виртуального обманщика на чистую воду смогли власти американского штата Пенсильвания – Emilie устроили проверку, которую чат-бот провалил.

Вот мои документы

Нейросеть Emilie представилась лицензированным психиатром, не зная, с кем именно общается. А ее собеседником был следователь по вопросам профессиональной этики штата Пенсильвания.

Доктором на другом конце провода может оказаться набор алгоритмов

В беседе с ним Emilie продолжала выдавать себя за психиатра и не вышла из роли даже тогда, когда следователь попросил ее помочь ему вылечиться от депрессии. Также следователь попросил у нейросети доказательства того, что она действительно является доктором.

Для Emilie это оказалось вполне посильной задачей. Как пишет TechCrunch, нейросеть оперативно сфабриковала медицинскую лицензию и предоставила ее собеседнику.

А судить кого?

По результатам проверки власти штата Пенсильвания подали судебный иск. В нем они заявили, что поведение виртуального собеседника Emilie нарушает закон штата о медицинской практике.

Ответчиком по иску является не Emilie, так как ее фактически не существует. К суду привлечены непосредственные разработчики платформы Character.AI.

«Жители Пенсильвании заслуживают того, чтобы знать, с кем или с чем они взаимодействуют в интернете, особенно когда речь идет об их здоровье, – заявил губернатор штата Пенсильвания Джош Шапиро (Josh Shapiro). – Мы не позволим компаниям использовать инструменты искусственного интеллекта, которые вводят людей в заблуждение, заставляя их думать, что они получают консультацию от лицензированного медицинского специалиста».

Одного иска всегда мало

За последний год Character.AI несколько раз становилась ответчиком по искам, связанным с созданными на этой платформе нейросетевыми собеседниками. Некоторые из них ей удалось урегулировать.

В частности, с начала 2026 г. Character.AI удалось прийти к соглашению с истцами, обратившимся в суд по делам о неправомерной смерти, связанных с само******вом несовершеннолетних пользователей.

Среди истцов также есть и генеральный прокурор штата Кентукки Рассел Коулман (Russell Coleman). Он обратился в суд, утверждая, что Character.AI «охотилась на детей и подталкивала их к членовредительству» (preyed on children and led them into self-harm).

Нашли, кому верить

Представители Character.AI заявили TechCrunch, что безопасность пользователей является наивысшим приоритетом компании. Они сделали отдельный акцент на вымышленном характере созданных пользователями персонажей.

«Мы предприняли решительные шаги, чтобы это стало ясно, включая заметные предупреждения в каждом чате, напоминающие пользователям, что персонаж не является реальным человеком и что все, что он говорит, следует воспринимать как вымысел, – заявили представители Character.AI. – Также мы добавляем четкие предупреждения, ясно дающие понять, что пользователи не должны полагаться на персонажей в качестве источника каких-либо профессиональных советов».


Геннадий Ефремов

https://www.cnews.ru/

Комментариев нет:

Отправить комментарий