Китай предложил новые правила для ИИ, призванные обеспечить защиту детей
30.12.2025 | 16:12
30 декабря, Минск /Корр. БЕЛТА/. Китай предложил новые строгие правила для искусственного интеллекта (ИИ), призванные обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию. Об этом сообщает BBC.
Это предложение прозвучало на фоне резкого увеличения числа запускаемых по всему миру чат-ботов. После завершения разработки правила будут применяться к продуктам и услугам в области ИИ в Китае, что станет важным шагом в регулировании быстрорастущей технологии, которая в этом году подверглась пристальному вниманию из-за проблем с безопасностью.
Проект, опубликованный в минувшие выходные Управлением по вопросам киберпространства КНР обязывает компании, занимающиеся разработкой ИИ, предлагать персонализированные настройки, устанавливать временные ограничения на использование и получать согласие опекунов перед предоставлением услуг эмоциональной поддержки. Операторы чат-ботов должны поручить ведение любого разговора, связанного с темой самоубийства или членовредительства, человеку и немедленно уведомить опекуна пользователя или контактное лицо на случай чрезвычайной ситуации.
В последние месяцы влияние ИИ на поведение человека стало предметом пристального внимания. Сэм Альтман, глава компании OpenAI, создавшей ChatGPT, заявил в этом году, что реакция чат-ботов на разговоры, связанные с членовредительством, является одной из самых сложных проблем компании.
В августе семья из Калифорнии подала в суд на OpenAI в связи со смертью своего 16-летнего сына, утверждая, что ChatGPT подстрекал его к самоубийству. Этот иск стал первым судебным разбирательством, в котором OpenAI обвиняется в причинении смерти по неосторожности. Недавно компания разместила объявление о вакансии "руководителя отдела готовности", который будет отвечать за защиту от рисков, связанных с моделями искусственного интеллекта, для психического здоровья людей и кибербезопасности. Успешный кандидат будет отвечать за отслеживание рисков, связанных с искусственным интеллектом, которые могут представлять опасность для людей.-0-