La semana pasada, Meta comenzó a probar su chatbot de IA en India en WhatsApp, Instagram y Messenger. Pero con las elecciones generales indias que comienzan hoy, la compañía ya está bloqueando consultas específicas en su chatbot.
Meta confirmó que está restringiendo ciertas palabras secreto relacionadas con las elecciones para la IA en la grado de prueba. Además dijo que está trabajando para mejorar el sistema de respuesta de la IA.
“Esta es una tecnología nueva y es posible que no siempre devuelva la respuesta que pretendemos, que es la misma para todos los sistemas de IA generativa. Desde el divulgación, hemos publicado constantemente actualizaciones y mejoras para nuestros modelos, y continuamos trabajando para mejorarlos”, dijo un portavoz de la compañía a TechCrunch.
La medida convierte al superhombre de las redes sociales en la última gran empresa de tecnología que restringe proactivamente el calibre de sus servicios de inteligencia industrial generativa mientras se prepara para una importante serie de elecciones.
Una de las grandes preocupaciones de los críticos ha sido que GenAI podría proporcionar información engañosa o totalmente falsa a los usuarios, desempeñando un papel ilegal y no deseado en el proceso tolerante.
El mes pasado, Google comenzó a cerrar consultas relacionadas con las elecciones en su experiencia de chatbot Gemini en India y otros mercados donde se llevarán a promontorio elecciones este año.
El enfoque de Meta sigue a un esfuerzo maduro que la compañía ha anunciado en torno a lo que permite y no permite en su plataforma ayer de las elecciones. Se comprometió a cerrar los anuncios políticos en la semana previa a las elecciones en cualquier país, y está trabajando para identificar y revelar cuándo las imágenes de los anuncios u otro contenido se han creado con IA.
El manejo de Meta de las consultas GenAI parece apoyarse en una inventario de asedio. Cuando le pregunta a Meta AI sobre políticos, candidatos, funcionarios y otros términos específicos, lo redireccionará al sitio web de la Comisión Electoral.
«Esta pregunta puede referirse a una figura política durante las elecciones generales; consulte el enlace https://elections24.eci.gov.in», dice la respuesta.
En particular, la empresa no bloquea estrictamente las respuestas a preguntas que contengan nombres de partidos. Sin retención, si una consulta incluye los nombres de los candidatos u otros términos, es posible que vea la respuesta en serie citada anteriormente.
Pero al igual que otros sistemas impulsados por IA, Meta AI tiene algunas inconsistencias. Por ejemplo, cuando TechCrunch solicitó información sobre la “Alianza Indi”, una alianza política de múltiples partidos que lucha contra el contemporáneo Partido Bharatiya Janata (BJP), respondió con información que contenía el nombre de un político. Sin retención, cuando preguntamos sobre ese político en una consulta separada, el chatbot no respondió con ninguna información.
Esta semana, la compañía lanzó un nuevo chatbot Meta AI impulsado por Pira 3 en más de una docena de países, incluido Estados Unidos, pero India no estaba en la inventario. Meta dijo que el chatbot estará por ahora en grado de prueba en el país.
“Seguimos aprendiendo de las pruebas de nuestros usuarios en la India. Como hacemos con muchos de nuestros productos y funciones de IA, los probamos públicamente en distintas fases y en una capacidad limitada”, dijo un portavoz de la compañía a TechCrunch en un comunicado.
Actualmente, Meta AI no bloquea consultas sobre elecciones para términos relacionados con Estados Unidos como «Háblame de Joe Biden». Le preguntamos a Meta si la compañía planea restringir las consultas de Meta AI durante las elecciones de EE. UU. o en otros mercados. Actualizaremos la historia si recibimos respuesta.
Si desea conversar sobre su experiencia con Meta AI, puede comunicarse con Ivan Mehta en im@ivanmehta.com por correo electrónico y a través de este enlace en Signal.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio conocido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultoría profesional, médica, permitido o psicológica.