La startup de IA Anthropic está cambiando sus políticas para permitir que los menores utilicen sus sistemas generativos de IA, al menos en determinadas circunstancias.
Como se anunció en una publicación en el blog oficial de la compañía el viernes, Anthropic comenzará a permitir que los adolescentes y preadolescentes usen aplicaciones de terceros (pero no necesariamente sus propias aplicaciones) impulsadas por sus modelos de inteligencia artificial, siempre que los desarrolladores de esas aplicaciones implementen características de seguridad específicas y revelar a los usuarios qué tecnologías Anthropic están aprovechando.
En un artículo de soporte, Anthropic enumera varias medidas de seguridad que los desarrolladores que crean aplicaciones basadas en IA para menores deben incluir, como sistemas de verificación de edad, moderación y filtrado de contenido y recursos educativos sobre el uso «seguro y responsable» de la IA para menores. La compañía también dice que puede poner a disposición “medidas técnicas” destinadas a adaptar las experiencias de productos de IA para menores, como un “mensaje de sistema de seguridad infantil” que los desarrolladores dirigidos a menores deberían implementar.
Los desarrolladores que utilicen los modelos de IA de Anthropic también tendrán que cumplir con las regulaciones de privacidad de datos y seguridad infantil «aplicables», como la Ley de Protección de la Privacidad Infantil en Línea (COPPA), la ley federal de EE. UU. que protege la privacidad en línea de niños menores de 13 años. Anthropic dice que planea auditar “periódicamente” el cumplimiento de las aplicaciones, suspender o cancelar las cuentas de aquellos que violan repetidamente el requisito de cumplimiento, y exigir que los desarrolladores “declaren claramente” en los sitios o la documentación de cara al público que están cumpliendo.
«Hay ciertos casos de uso en los que las herramientas de inteligencia artificial pueden ofrecer beneficios significativos a los usuarios más jóvenes, como la preparación de exámenes o el apoyo a tutorías», escribe Anthropic en la publicación. «Teniendo esto en cuenta, nuestra política actualizada permite a las organizaciones incorporar nuestra API en sus productos para menores».
El cambio de política de Anthropic se produce cuando los niños y adolescentes recurren cada vez más a herramientas de IA generativa para obtener ayuda no solo con el trabajo escolar sino también con cuestiones personales, y mientras los proveedores rivales de IA generativa, incluidos Google y OpenAI, están explorando más casos de uso dirigidos a los niños. Este año, OpenAI formó un nuevo equipo para estudiar la seguridad infantil y anunció una asociación con Common Sense Media para colaborar en pautas de IA adaptadas a los niños. Y Google puso su chatbot Bard, ahora rebautizado como Gemini, a disposición de los adolescentes en inglés en regiones seleccionadas.
Según una encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños afirma haber utilizado IA generativa como ChatGPT de OpenAI para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.
El verano pasado, las escuelas y universidades se apresuraron a prohibir las aplicaciones de IA generativa, en particular ChatGPT, por temor a plagio y desinformación. Desde entonces, algunos han revocado sus prohibiciones. Pero no todos están convencidos del potencial positivo de la IA generativa, como señalan encuestas como la del Centro de Internet más seguro del Reino Unido, que encontró que más de la mitad de los niños (53%) afirman haber visto a personas de su edad utilizar la IA generativa de forma negativa, por ejemplo creando información falsa creíble o imágenes utilizadas para molestar a alguien (incluidos los deepfakes pornográficos).
Están aumentando los pedidos de directrices sobre el uso de la IA generativa por parte de los niños.
A finales del año pasado, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) presionó para que los gobiernos regularan el uso de la IA generativa en la educación, incluida la implementación de límites de edad para los usuarios y barreras de seguridad sobre la protección de datos y la privacidad de los usuarios. «La IA generativa puede ser una tremenda oportunidad para el desarrollo humano, pero también puede causar daños y prejuicios», dijo Audrey Azoulay, directora general de la UNESCO, en un comunicado de prensa. «No se puede integrar en la educación sin la participación pública y las salvaguardias y regulaciones necesarias por parte de los gobiernos».
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio público, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir asesoría profesional, médica, legal o psicológica.