Para brindarles a las académicas y a otras personas centradas en la IA su apropiado (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo extenso del año a medida que continúe el auge de la IA, destacando trabajos secreto que a menudo pasan desapercibidos. Lea más perfiles aquí.
Urvashi Aneja es el director fundador de Digital Futures Lab, un esfuerzo de investigación interdisciplinario que exploración examinar la interacción entre la tecnología y la sociedad en el Sur Completo. Incluso es miembro asociado del software Asia Pacífico de Chatham House, un instituto de políticas independiente con sede en Londres.
La investigación presente de Aneja se centra en el impacto social de los sistemas algorítmicos de toma de decisiones en la India, donde reside, y en la gobernanza de la plataforma. Aneja fue autora recientemente de un estudio sobre los usos actuales de la IA en la India, en el que revisa casos de uso en sectores como la policía y la agricultura.
Preguntas y respuestas
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
Comencé mi carrera en investigación y billete política en el sector humanitario. Durante varios primaveras, estudié el uso de tecnologías digitales en crisis prolongadas en contextos de bajos bienes. Rápidamente aprendí que existe una flaca recta entre la innovación y la experimentación, particularmente cuando se manejo de poblaciones vulnerables. Los aprendizajes de esta experiencia hicieron que me preocupara profundamente las narrativas tecno-solucionistas en torno al potencial de las tecnologías digitales, en particular la IA. Al mismo tiempo, India había decidido su empresa India Digital y su Logística Doméstico para la Inteligencia Químico. Me preocuparon las narrativas dominantes que veían la IA como una posibilidad milagrosa para los complejos problemas socioeconómicos de la India, y la total desliz de discurso crítico sobre el tema.
¿De qué trabajo estás más orgulloso (en el campo de la IA)?
Estoy orgulloso de acaecer podido acentuar la atención sobre la crematística política de la producción de IA, así como sobre implicaciones más amplias para la equidad social, las relaciones laborales y la sostenibilidad ambiental. Muy a menudo, las narrativas sobre la IA se centran en los beneficios de aplicaciones específicas y, en el mejor de los casos, en los beneficios y riesgos de esa aplicación. Pero esto pasa por suspensión el bosque por los árboles: una cristal orientada al producto oscurece los impactos estructurales más amplios, como la contribución de la IA a la injusticia epistémica, la descalificación de la mano de obra y la perpetuación de un poder valeverguista en el mundo mayoritario. Incluso estoy orgulloso de que hayamos podido traducir estas preocupaciones en políticas y regulaciones concretas, ya sea diseñando pautas de adquisiciones para el uso de la IA en el sector sabido o entregando evidencia en procedimientos legales contra las grandes empresas tecnológicas en el Sur Completo.
¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia químico dominada por los hombres?
Dejando que mi trabajo hable por sí solo. Y preguntando constantemente: ¿por qué?
¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
Desarrolla tus conocimientos y experiencia. Asegúrese de que su comprensión técnica de los problemas sea sólida, pero no se centre solamente en la IA. En su motivo, estudie ampliamente para poder establecer conexiones entre campos y disciplinas. No hay suficientes personas que comprendan la IA como un sistema sociotécnico producto de la historia y la civilización.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Creo que el problema más apremiante es la concentración de poder internamente de un puñado de empresas de tecnología. Si perfectamente no es nuevo, este problema se ve exacerbado por los nuevos desarrollos en grandes modelos de verbo y la IA generativa. Muchas de estas empresas ahora están avivando los temores sobre los riesgos existenciales de la IA. Esto no sólo es una distracción de los daños existentes, sino que incluso posiciona a estas empresas como necesarias para topar los daños relacionados con la IA. En muchos sentidos, estamos perdiendo parte del impulso del “vergajazo tecnológico” que surgió tras el episodio de Cambridge Analytica. En lugares como India, incluso me preocupa que la IA se esté posicionando como necesaria para el explicación socioeconómico, presentando una oportunidad para pasar desafíos persistentes. Esto no sólo exagera el potencial de la IA, sino que incluso ignora el hecho de que no es posible saltarse el explicación institucional necesario para desarrollar salvaguardias. Otra cuestión que no estamos considerando con la suficiente seriedad son los impactos ambientales de la IA: es probable que la trayectoria presente sea insostenible. En el ecosistema presente, es poco probable que los más vulnerables a los impactos del cambio climático sean los beneficiarios de la innovación en IA.
¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?
Los usuarios deben ser conscientes de que la IA no es encanto ni falta parecido a la inteligencia humana. Es una forma de estadística computacional que tiene muchos usos beneficiosos, pero en última instancia es sólo una suposición probabilística basada en patrones históricos o previos. Estoy seguro de que hay varios otros problemas que los usuarios incluso deben tener en cuenta, pero quiero advertir que debemos tener cuidado con los intentos de trasladar la responsabilidad a los usuarios. Veo esto más recientemente con el uso de herramientas de IA generativa en contextos de bajos bienes en la mayoría del mundo: en motivo de ser cautelosos con estas tecnologías experimentales y poco confiables, el enfoque a menudo cambia a cómo los usuarios finales, como los agricultores o los trabajadores de primera recta. Los trabajadores de la salubridad necesitan mejorar sus habilidades.
¿Cuál es la mejor guisa de construir IA de guisa responsable?
Esto debe comenzar con la evaluación de la exigencia de IA en primer motivo. ¿Existe algún problema que la IA pueda resolver de forma única o son posibles otros medios? Y si vamos a construir IA, ¿es necesario un maniquí enrevesado de caja negra, o podría funcionar igual de perfectamente un maniquí más simple basado en la deducción? Incluso necesitamos retornar a centrar el conocimiento del dominio en la construcción de la IA. En la obsesión por los grandes datos, hemos sacrificado la teoría: necesitamos construir una teoría del cambio basada en el conocimiento del dominio y esta debería ser la almohadilla de los modelos que estamos construyendo, no solo los grandes datos. Por supuesto, esto se suma a cuestiones secreto como la billete, los equipos inclusivos, los derechos laborales, etc.
¿Cómo pueden los inversores impulsar mejor una IA responsable?
Los inversores deben considerar todo el ciclo de vida de la producción de IA, no solo los resultados de las aplicaciones de IA. Esto requeriría examinar una serie de cuestiones tales como si el trabajo se valora equitativamente, los impactos ambientales, el maniquí de negocio de la empresa (es aseverar, ¿se base en la vigilancia comercial?) y las medidas internas de rendición de cuentas internamente de la empresa. Los inversores incluso deben pedir pruebas mejores y más rigurosas sobre los supuestos beneficios de la IA.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio sabido, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir consultorio profesional, médica, judicial o psicológica.