Siete compañías tecnológicas son encuestadas por un regulador estadounidense sobre cómo sus chatbots de inteligencia artificiales (IA) interactúan con los niños.
La Comisión Federal de Comercio (FTC) solicita información sobre cómo las empresas monetizan estos productos y si tienen medidas de seguridad vigentes.
Los impactos de los chatbots de IA para los niños son un tema ardiente, con preocupaciones de que los jóvenes son particularmente vulnerables debido a la capacidad de la IA para imitar las conversaciones y emociones humanas, a menudo presentándose como amigos o compañeros.
Las siete sociedades, Alphabet, OpenAi, personaje. A, Snap, Xai, Meta y su subsidiaria de Instagram, fueron contactadas para comentarios.
El presidente de la FTC, Andrew Ferguson, dijo que la encuesta “nos ayudará a comprender mejor cómo las empresas de IA desarrollan sus productos y las medidas que toman para proteger a los niños”.
Pero agregó que el regulador se aseguraría de que “Estados Unidos administre su papel como líder mundial en esta nueva industria fascinante”.
El personaje. Ai le dijo a Reuters que había dado la bienvenida a la posibilidad de compartir información con los reguladores, mientras que Snap dijo que apoyaba el “desarrollo reflexivo” de la IA que equilibra la innovación con la seguridad.
Operai ha reconocido las debilidades en sus protecciones, señalando que son menos confiables en largas conversaciones.
Esta decisión sigue los procedimientos contra las empresas de IA por parte de familias que dicen que sus adolescentes murieron por suicidio después de conversaciones prolongadas con chatbots.
En California, los padres de Adam Raine, de 16 años, son Suite Operai Durante su muerte, alegando que su chatbot, chatgpt, lo alentó a suicidarse.
Argumentan que ChatGPT validó sus “pensamientos más dañinos y autodestructivos”.
Openai dijo en agosto que estaba examinando el archivo.
“Extendemos nuestras más profundas simpatías a la familia Raú durante este período difícil”, dijo la sociedad.
Meta también enfrentó críticas después de ser revelada por pautas internas Conversaciones “románticas o sensuales” con menores.
EL Comandos FTC Solicite información de las empresas sobre sus prácticas, especialmente cómo desarrollan y aprueban los personajes, miden sus impactos en los niños y aplican restricciones de edad.
Su autoridad permite una gran búsqueda de hechos sin lanzar medidas de aplicación.
El regulador dice que también quiere comprender cómo las empresas equilibran los beneficios con las garantías, cómo se informan a los padres y si los usuarios vulnerables están adecuadamente protegidos.
Los riesgos con los chatbots de IA también se extienden más allá de los niños.
En agosto, Reuters informó Un hombre de 76 años que sufre de discapacidades cognitivas, que murió después de caer en su camino para encontrarse con un bot de IA de Messenger de Facebook en Kendall Jenner, quien le había prometido una reunión “real” en Nueva York.
Los médicos también advierten “AI Piosis” – Donde alguien pierde contacto con la realidad después del uso intenso de chatbots.
Los expertos dicen que el plato y el acuerdo integrados en modelos de idiomas grandes pueden alimentar tales delirios.
Opadai Recientemente realizó cambios En ChatGPT, para promover una relación más saludable entre el chatbot y sus usuarios.