En ausencia de regulaciones federales más fuertes, algunos estados han comenzado a regular las solicitudes que ofrecen “terapia” de IA Inteligencia artificial para consejos de salud mental.
Pero las leyes, todas adoptadas este año, no tratan completamente el panorama en rápida evolución del desarrollo del software de IA. Y los desarrolladores de aplicaciones, los fabricantes de decisiones políticas y los defensores de salud mental dicen que el mosaico de las leyes de los estados resultantes no es suficiente para proteger a los usuarios o mantener a los creadores de tecnologías técnicas responsables.
“La realidad es que millones de personas usan estas herramientas y no regresan”, dijo Karin Andrea Stephan, CEO y cofundador del Chatbot Earkick de la aplicación mental de salud.
___
Nota del editor: esta historia incluye una discusión sobre el suicidio. Si usted o alguien que conoce necesita ayuda, el suicidio nacional y el salvavidas de crisis en los Estados Unidos están disponibles llamando o enviando un SMS 988. También hay un gato en línea en 988lifeline.org.
___
Las leyes estatales adoptan diferentes enfoques. Illinois Y Nevada han prohibido el uso de IA para tratar la salud mental. Utah Colocó ciertos límites a los chatbots terapéuticos, en particular al obligarlos a proteger la información de salud del usuario y revelar claramente que el chatbot no es humano. Pensilvania, Nueva Jersey Y California También prevé medios para regular la terapia de IA.
El impacto en los usuarios varía. Algunas aplicaciones han bloqueado el acceso a los estados con prohibiciones. Otros dicen que no hacen cambios porque esperan más claridad legal.
Y muchas leyes no cubren Chatbots genéricos como chatgptque no se comercializan explícitamente para la terapia, sino que son utilizados por un innumerable número de personas para esto. Estos robots han atraído el enjuiciamiento en casos horribles donde los usuarios perdió su control sobre la realidad O ha tomado sus vidas Después de interactuar con ellos.
Vaile Wright, quien supervisa la innovación de la atención médica en la Asociación Americana de Psicología, ha acordado que las solicitudes podrían satisfacer una necesidad, señalando a un país en todo el país escasez de proveedores de salud mentalAltos costos de atención y acceso desigual para pacientes asegurados.
Los chatbots de salud mental que están enraizados en la ciencia, creados con contribuciones de expertos y monitoreados por humanos podrían cambiar el paisaje, dijo Wright.
“Podría ser algo que ayuda a las personas antes de que ocurran en crisis”, dijo. “Esto no es lo que está en el mercado comercial actualmente”.
Es por eso que son necesarias las regulaciones federales y la vigilancia, dijo.
A principios de este mes, la Comisión Federal de Comercio anunció que era Apertura de solicitudes en siete compañías de chatbot de IA – incluyendo Instagram y compañías madre de Facebook, Google, ChatGPT, Grok (The Chatbot on X), el carácter .i y el Snapchat, en la forma en que “miden, prueban y monitorearon los impactos potencialmente negativos de esta tecnología en niños y adolescentes”. Y la Administración de Alimentos y Medicamentos convoca a un Comité Asesor el 6 de noviembre para examinar Dispositivos de salud mental generativo compatible.
Las agencias federales podrían considerar restricciones sobre cómo se comercializan los chatbots, limitar las prácticas adictivas, requieren la divulgación de los usuarios de que no son proveedores médicos, requieren que las empresas sigan y indiquen pensamientos suicidas y ofrezcan protecciones legales a las personas que indican malas prácticas malas, dijo Wright.
Desde “aplicaciones complementarias” hasta “terapeutas de IA” hasta aplicaciones de “bienestar mental”, el uso de IA en la atención de salud mental es variado y difícil de definir, sin mencionar la escritura.
Esto ha llevado a diferentes enfoques regulatorios. Algunos estados, por ejemplo, apuntan Aplicaciones complementarias quienes son Diseñado solo para la amistadPero no entres en la atención de salud mental. Las leyes de Illinois y Nevada prohíben los productos que afirman proporcionar tratamiento de salud mental, amenazando multas de hasta $ 10,000 en Illinois y $ 15,000 en Nevada.
Pero incluso una sola aplicación puede ser difícil de clasificar.
Stephan de Earkick dijo que todavía había muchas cosas “muy fangosas” sobre la ley de Illinois, por ejemplo, y que la sociedad no ha limitado el acceso a ella.
Stephan y su equipo inicialmente retuvieron la llamada de su chatbot, que parece un panda de dibujos animados, un terapeuta. Pero cuando los usuarios comenzaron a usar la palabra en crítica, adoptaron la terminología para que la aplicación aparezca en la investigación.
La semana pasada, cayeron al usar terapia y términos médicos nuevamente. El sitio web de Earkick ha descrito su chatbot como “su asesor de IA empático, equipado para apoyar su curso de salud mental”, pero ahora es un “chatbot para el cuidado personal”.
Sin embargo, “no diagnosticamos”, dijo Stephan.
Los usuarios pueden configurar un “botón de pánico” para llamar a uno querido de confianza si están en crisis y el chatbot “presiona” a los usuarios para buscar un terapeuta si su salud mental empeora. Pero nunca ha sido diseñado para ser una aplicación de prevención de suicidio, dijo Stephan, y la policía no se llamaría si alguien hablara con el bot del auto -control.
Stephan dijo que estaba feliz de que la gente mirara la IA con un ojo crítico, pero preocupado por la capacidad de los estados para seguir la innovación.
“La velocidad a la que todo evoluciona es enorme”, dijo.
Otras aplicaciones bloquearon inmediatamente el acceso. Cuando los usuarios de Illinois descargan la aplicación AI Ash Therapy, un mensaje los insta a enviar un correo electrónico a sus legisladores, argumentando que la “legislación errónea” ha prohibido aplicaciones como Ash “mientras dejaba chatbots no regulados, tenía la intención de regular el daño libre para causar daños”.
Un portavoz de Ash no respondió a varias solicitudes de entrevista.
Mario Treto Jr., secretario del Departamento de Regulaciones Financieras y Profesionales de Illinois, dijo que el objetivo era en última instancia asegurarse de que los terapeutas aprobados fueran los únicos que siguieron una terapia.
“La terapia es más que un intercambio de palabras”, dijo Treto. “Esto requiere empatía, requiere un juicio clínico, requiere una responsabilidad ética, que ninguna IA realmente puede volver a suceder”.
En marzo, un equipo con sede en la Universidad de Dartmouth publicó el primer conocido ensayo clínico aleatorizado Un gato de gato generador para el tratamiento de la salud mental.
El objetivo era tener el chatbot, llamado Therabot, para tratar a las personas diagnosticadas con ansiedad, depresión o trastornos de la dieta. Fue entrenado en viñetas y transcripciones escritas por el equipo para ilustrar una respuesta basada en evidencia.
El estudio reveló que los usuarios evaluaron Therabot similar a un terapeuta y tenían síntomas significativamente más bajos después de ocho semanas en comparación con las personas que no lo usan. Cada interacción fue monitoreada por un humano que intervino si la respuesta del chatbot fue dañina o no basada en evidencia.
Nicholas Jacobson, un psicólogo clínico cuyo laboratorio realiza investigaciones, dijo que los resultados mostraron una promesa temprana, pero que se necesitan estudios más importantes para demostrar si Therabot funciona para un gran número de personas.
“El espacio es tan dramáticamente nuevo que creo que el dominio debe proceder con mucha más precaución que ocurre en este momento”, dijo.
Muchas aplicaciones de IA están optimizadas para la participación y están diseñadas para respaldar todo lo que dicen los usuarios, en lugar de cuestionar las personas y los pensamientos de los terapeutas. Muchos caminan en la línea y la terapia de la compañía, difuminando farmacéuticos de las fronteras de intimidad no lo harían éticamente.
El equipo de Therapot ha tratado de evitar estos problemas.
La aplicación todavía está en pruebas y no está ampliamente disponible. Pero a Jacobson le preocupa lo que significará las prohibiciones estrictas para los desarrolladores que adoptan un enfoque cuidadoso. Señaló que Illinois no tenía una pista clara para proporcionar pruebas de que una aplicación es segura y efectiva.
“Quieren proteger a las personas, pero el sistema tradicional en este momento está realmente fallando a las personas”, dijo. “Así que tratar de quedarse con el status quo no es realmente lo que hay que hacer”.
Los reguladores y los defensores de la ley dicen que están abiertos a los cambios. Pero los chatbots de hoy no son una solución a la escasez de proveedores de salud mental, dijo Kyle Hillman, quien fue presión por los proyectos de ley de Illinois y Nevada gracias a su afiliación con la Asociación Nacional de Trabajadores Sociales.
“Todos los que se sienten tristes no necesitan un terapeuta”, dijo. Pero para las personas con problemas reales de salud mental o pensamientos suicidas, “decirles:” Sé que hay escasez de trabajo, pero aquí hay un bot “, es una posición tan privilegiada”.
___
El Departamento de Salud y Ciencias de Associated Press recibe el apoyo del Departamento de Educación Científica del Instituto Médico Howard Hughes y la Fundación Robert Wood Johnson. El AP es el único responsable de todo el contenido.