Osmond Chiaperiodista económico

Getty Images Una niña con una cola de caballo mira videos de redes sociales en un teléfono móvil triple en la tienda insignia de Huawei más grande del mundo en Shanghai, China.Imágenes falsas

China ha propuesto nuevas reglas estrictas sobre inteligencia artificial (IA) para proteger a los niños y evitar que los chatbots den consejos que puedan provocar autolesiones o violencia.

Como parte de las regulaciones planificadas, los desarrolladores también deberán asegurarse de que sus modelos de IA no generen contenido que promueva los juegos de azar.

Este anuncio se produce tras un aumento en la cantidad de chatbots lanzados en China y en todo el mundo.

Una vez finalizadas, las reglas se aplicarán a los productos y servicios de inteligencia artificial en China, lo que marca un paso importante hacia la regulación de esta tecnología de rápido crecimiento, que ha sido objeto de escrutinio este año por preocupaciones de seguridad.

el proyecto de reglasque fueron publicados este fin de semana por la Administración del Ciberespacio de China (CAC), incluyen medidas para proteger a los niños. Estas incluyen exigir a las empresas de inteligencia artificial que ofrezcan configuraciones personalizadas, impongan límites de tiempo de uso y obtengan el consentimiento de los tutores antes de brindar servicios de compañía emocional.

Los operadores de chatbot deben tener un ser humano que se haga cargo de cualquier conversación relacionada con el suicidio o la autolesión y notificar inmediatamente al tutor del usuario o al contacto de emergencia, dijo la administración.

Los proveedores de IA deben garantizar que sus servicios no generen ni compartan “contenido que ponga en peligro la seguridad nacional, dañe el honor y los intereses nacionales (o) socave la unidad nacional”, dice el comunicado.

El CAC dijo que fomenta la adopción de la IA, en particular para promover la cultura local y crear herramientas de compañía para las personas mayores, siempre que la tecnología sea segura y confiable. También solicitó comentarios del público.

La empresa china de inteligencia artificial DeepSeek fue noticia en todo el mundo este año después de dominar las listas de descargas de aplicaciones.

Este mes, dos nuevas empresas chinas, Z.ai y Minimax, que juntas tienen decenas de millones de usuarios, anunciaron planes de salir a bolsa.

La tecnología rápidamente ganó una gran cantidad de suscriptores, y algunos la utilizaban como compañía o terapia.

El impacto de la IA en el comportamiento humano ha recibido cada vez más atención en los últimos meses.

Sam Altman, director de OpenAI, creador de ChatGPT, dijo este año que cómo responden los chatbots a conversaciones relacionadas con la autolesión es uno de los problemas más difíciles de la empresa.

En agosto, una familia de California demandó a OpenAI por la muerte de su hijo de 16 años, alegando que ChatGPT lo animó a suicidarse. La demanda marcó la primera acción legal que acusa a OpenAI de muerte por negligencia.

Este mes, la compañía anunció el nombramiento de un “director de preparación” que será responsable de defenderse de los riesgos que plantean los modelos de IA para la salud mental humana y la ciberseguridad.

El candidato seleccionado será responsable de monitorear los riesgos relacionados con la IA que podrían dañar a las personas. El señor Altman dijo: “Será un trabajo estresante y te sumergirás en lo más profundo casi de inmediato”.

Si siente angustia o desesperanza y necesita apoyo, puede hablar con un profesional de la salud o una organización que ofrezca apoyo. Los detalles del soporte disponible en muchos países se pueden encontrar en Befrienders Worldwide: www.befrienders.org.

En el Reino Unido, hay una lista de organizaciones que pueden ayudarle disponible en bbc.co.uk/actionline. Los lectores de Estados Unidos y Canadá pueden llamar a la línea directa de suicidio 988 o visita su sitio web.

Enlace de fuente