Китай предложил новые правила для ИИ, призванные обеспечить защиту детей
Китай предложил новые строгие правила для искусственного интеллекта (ИИ), призванные обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию. Об этом сообщает BBC.
Китай предложил новые строгие правила для искусственного интеллекта (ИИ), призванные обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию. Об этом сообщает BBC.

Это предложение прозвучало на фоне резкого увеличения числа запускаемых по всему миру чат-ботов. После завершения разработки правила будут применяться к продуктам и услугам в области ИИ в Китае, что станет важным шагом в регулировании быстрорастущей технологии, которая в этом году подверглась пристальному вниманию из-за проблем с безопасностью.
Проект, опубликованный в минувшие выходные Управлением по вопросам киберпространства КНР обязывает компании, занимающиеся разработкой ИИ, предлагать персонализированные настройки, устанавливать временные ограничения на использование и получать согласие опекунов перед предоставлением услуг эмоциональной поддержки. Операторы чат-ботов должны поручить ведение любого разговора, связанного с темой самоубийства или членовредительства, человеку и немедленно уведомить опекуна пользователя или контактное лицо на случай чрезвычайной ситуации.
В последние месяцы влияние ИИ на поведение человека стало предметом пристального внимания. Сэм Альтман, глава компании OpenAI, создавшей ChatGPT, заявил в этом году, что реакция чат-ботов на разговоры, связанные с членовредительством, является одной из самых сложных проблем компании.
В августе семья из Калифорнии подала в суд на OpenAI в связи со смертью своего 16-летнего сына, утверждая, что ChatGPT подстрекал его к самоубийству. Этот иск стал первым судебным разбирательством, в котором OpenAI обвиняется в причинении смерти по неосторожности. Недавно компания разместила объявление о вакансии "руководителя отдела готовности", который будет отвечать за защиту от рисков, связанных с моделями искусственного интеллекта, для психического здоровья людей и кибербезопасности. Успешный кандидат будет отвечать за отслеживание рисков, связанных с искусственным интеллектом, которые могут представлять опасность для людей.
Реклама
Другие статьи раздела
Самое читаемое
-
Молодой ученый из Института радиобиологии развенчивает мифы о радиации
- 14:43
- 31.07.2024
- 33222
-
Каналы Мелстроя признаны экстремистскими в Беларуси
- 17:15
- 06.11.2025
- 20118
-
В Греции женщина подала на развод из-за предсказания ChatGPT. К ИИ она обратилась за помощью при гадании на кофейной гуще
- 20:51
- 18.05.2025
- 19979
-
Мошенники массово атакуют Белтелеком
- 12:10
- 25.09.2025
- 19704
-
Знай наших. Белорус Андрей Татаринович стал самым успешным киберигроком в истории нашей страны
- 15:08
- 19.09.2025
- 18637
-
Растворимую электронику создали в Корее
- 20:57
- 20.09.2025
- 18273
-
Карточки некоторых банков могут не работать в Беларуси в ночь на 20 сентября
- 18:36
- 19.09.2025
- 18079
-
На сайте одного из исполкомов нашли персональные данные сотен правонарушителей
- 20:58
- 30.09.2025
- 18029
-
Иранским ученым удалось создать человеческую кожу в лаборатории
- 13:47
- 26.08.2025
- 17676
-
Первых в мире голубей-биодронов для мониторинга любого типа создала российская компания
- 20:27
- 01.12.2025
- 17351



