Para darles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres notables que han contribuido a la revolución de la IA. Publicaremos estos artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.
En el centro de atención esta tarde: Ewa Luger es codirectora del Instituto de Informática de Diseño y codirectora del programa Bridging Responsible AI Divides (BRAID), respaldado por el Arts and Humanities Research Council (AHRC). Trabaja en estrecha colaboración con los responsables políticos y la industria, y es miembro del colegio de expertos del Departamento de Cultura, Medios y Deportes del Reino Unido (DCMS), un grupo de expertos que brindan asesoramiento científico y técnico al DCMS.
La investigación de Luger explora cuestiones sociales, éticas e interaccionales en el contexto de sistemas basados en datos, incluidos los sistemas de inteligencia artificial, con un interés particular en el diseño, la distribución del poder, las esferas de exclusión y el consentimiento del usuario. Anteriormente, fue becaria del Instituto Alan Turing, se desempeñó como investigadora en Microsoft y fue becaria del Corpus Christi College de la Universidad de Cambridge.
Preguntas y respuestas
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
Después de mi doctorado, me mudé a Microsoft Research, donde trabajé en el grupo de diseño y experiencia de usuario en el laboratorio de Cambridge (Reino Unido). La IA era un enfoque central allí, por lo que mi trabajo naturalmente se desarrolló más completamente en esa área y se expandió a cuestiones relacionadas con la IA centrada en el ser humano (por ejemplo, asistentes de voz inteligentes).
Cuando me mudé a la Universidad de Edimburgo, fue debido al deseo de explorar cuestiones de inteligibilidad algorítmica, que, allá por 2016, era un área de nicho. Me encontré en el campo de la IA responsable y actualmente dirijo conjuntamente un programa nacional sobre el tema, financiado por la AHRC.
¿De qué trabajo estás más orgulloso en el campo de la IA?
Mi trabajo más citado es un artículo sobre la experiencia del usuario de los asistentes de voz (2016). Fue el primer estudio de este tipo y todavía es muy citado. Pero el trabajo del que personalmente estoy más orgulloso está en curso. BRAID es un programa que dirijo conjuntamente y está diseñado en colaboración con un filósofo y especialista en ética. Es un esfuerzo genuinamente multidisciplinario diseñado para apoyar el desarrollo de un ecosistema de IA responsable en el Reino Unido.
En asociación con el Instituto Ada Lovelace y la BBC, su objetivo es conectar el conocimiento de las artes y las humanidades con las políticas, la regulación, la industria y el sector voluntario. A menudo pasamos por alto las artes y las humanidades cuando se trata de IA, lo que siempre me ha parecido extraño. Cuando llegó la COVID-19, el valor de las industrias creativas era muy profundo; Sabemos que aprender de la historia es fundamental para evitar cometer los mismos errores, y la filosofía es la raíz de los marcos éticos que nos han mantenido seguros e informados dentro de la ciencia médica durante muchos años. Sistemas como Midjourney dependen del contenido de artistas y diseñadores como datos de capacitación y, sin embargo, de alguna manera estas disciplinas y profesionales tienen poca o ninguna voz en el campo. Queremos cambiar eso.
De manera más práctica, he trabajado con socios de la industria como Microsoft y la BBC para coproducir desafíos de IA responsable, y hemos trabajado juntos para encontrar académicos que puedan responder a esos desafíos. BRAID ha financiado 27 proyectos hasta el momento, algunos de los cuales han sido becas individuales, y pronto publicaremos una nueva convocatoria.
Estamos diseñando un curso en línea gratuito para las partes interesadas que buscan interactuar con la IA, creando un foro donde esperamos involucrar a una muestra representativa de la población, así como a otras partes interesadas sectoriales, para apoyar la gobernanza del trabajo, y ayudando a explotar algunas de los mitos y las hipérboles que rodean a la IA en este momento.
Sé que ese tipo de narrativa es lo que hace flotar la inversión actual en torno a la IA, pero también sirve para cultivar el miedo y la confusión entre aquellas personas que tienen más probabilidades de sufrir daños posteriores. BRAID estará vigente hasta finales de 2028 y, en la siguiente fase, abordaremos la alfabetización en IA, los espacios de resistencia y los mecanismos de impugnación y recurso. Es un programa (relativamente) grande de £15,9 millones durante seis años, financiado por la AHRC.
¿Cómo se enfrentan los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la IA dominada por los hombres?
Esa es una pregunta interesante. Comenzaría diciendo que estos problemas no son problemas que se encuentran únicamente en la industria, lo que a menudo se percibe como el caso. El entorno académico tiene desafíos muy similares con respecto a la igualdad de género. Actualmente soy codirector de un instituto, Design Informatics, que reúne la escuela de diseño y la escuela de informática, por lo que diría que hay un mejor equilibrio tanto con respecto al género como con respecto a los tipos de cultura. Cuestiones que limitan que las mujeres alcancen su pleno potencial profesional en el lugar de trabajo.
Pero durante mi doctorado, estuve en un laboratorio dominado por hombres y, en menor medida, cuando trabajé en la industria. Dejando de lado los efectos obvios de las interrupciones profesionales y el cuidado, mi experiencia ha sido la de dos dinámicas entrelazadas. En primer lugar, se imponen estándares y expectativas mucho más altos a las mujeres: por ejemplo, que sean dóciles, positivas, amables, solidarias, que trabajen en equipo, etc. En segundo lugar, a menudo nos mostramos reticentes a la hora de presentarnos ante oportunidades que los hombres menos cualificados aprovecharían de forma bastante agresiva. Así que en muchas ocasiones he tenido que esforzarme bastante fuera de mi zona de confort.
La otra cosa que tuve que hacer es establecer límites muy firmes y aprender cuándo decir no. Las mujeres a menudo son entrenadas para complacer a la gente (y ser vistas como tal). Se nos puede ver con demasiada facilidad como la persona a quien recurrir para el tipo de tareas que serían menos atractivas para sus colegas masculinos, incluso hasta el punto de asumir que somos quienes preparamos el té o tomamos notas en cualquier reunión, independientemente de situación profesional. Y solo diciendo que no y asegurándote de ser consciente de tu valor, terminarás siendo visto bajo una luz diferente. Es demasiado generalizar decir que esto es cierto para todas las mujeres, pero ciertamente así ha sido mi experiencia. Debo decir que tuve una gerente mientras estaba en la industria y ella era maravillosa, por lo que la mayor parte del sexismo que he experimentado ha sido dentro del mundo académico.
En general, los problemas son estructurales y culturales, por lo que abordarlos requiere esfuerzo: en primer lugar, hacerlos visibles y, en segundo lugar, abordarlos activamente. No hay soluciones simples, y cualquier navegación supone aún más trabajo emocional para las mujeres en el sector tecnológico.
¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
Mi consejo siempre ha sido buscar oportunidades que te permitan subir de nivel, incluso si no sientes que eres 100% el candidato adecuado. Déjelos declinar en lugar de excluir usted mismo las oportunidades. Las investigaciones muestran que los hombres optan por roles que creen que podrían desempeñar, pero las mujeres solo optan por roles que sienten que ya pueden o están desempeñando de manera competente. Actualmente, también hay una tendencia hacia una mayor conciencia de género en el proceso de contratación y entre los financiadores, aunque ejemplos recientes muestran hasta dónde tenemos que llegar.
Si nos fijamos en los centros de investigación e innovación de IA del Reino Unido, una reciente inversión de alto perfil y de varios millones de libras, los nueve centros de investigación de IA anunciados recientemente están dirigidos por hombres. Realmente deberíamos esforzarnos más para garantizar la representación de género.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Teniendo en cuenta mis antecedentes, tal vez no sea sorprendente que diga que los problemas más apremiantes que enfrenta la IA son los relacionados con los daños inmediatos y posteriores que podrían ocurrir si no somos cuidadosos en el diseño, la gobernanza y el uso de los sistemas de IA.
La cuestión más apremiante, y que ha sido poco investigada, es el impacto ambiental de los modelos a gran escala. Podríamos optar en algún momento por aceptar esos impactos si los beneficios de la aplicación superan los riesgos. Pero en este momento, estamos viendo un uso generalizado de sistemas como Midjourney que se ejecutan simplemente por diversión, y los usuarios en gran medida, si no completamente, desconocen el impacto cada vez que ejecutan una consulta.
Otra cuestión apremiante es cómo conciliar la velocidad de las innovaciones en IA y la capacidad del clima regulatorio para mantenerse al día. No es un tema nuevo, pero la regulación es el mejor instrumento que tenemos para garantizar que los sistemas de IA se desarrollen y desplieguen de manera responsable.
Es muy fácil suponer que lo que se ha llamado la democratización de la IA (con esto me refiero a que sistemas como ChatGPT estén tan disponibles para cualquiera) es un avance positivo. Sin embargo, ya estamos viendo los efectos del contenido generado en las industrias creativas y los profesionales creativos, particularmente en lo que respecta a los derechos de autor y la atribución. El periodismo y los productores de noticias también están corriendo para asegurarse de que su contenido y sus marcas no se vean afectados. Este último punto tiene enormes implicaciones para nuestros sistemas democráticos, particularmente ahora que entramos en ciclos electorales clave. Los efectos podrían literalmente cambiar el mundo desde una perspectiva geopolítica. Tampoco sería una lista de cuestiones sin al menos un guiño al sesgo.
¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?
No estoy seguro de si esto se relaciona con empresas que utilizan IA o con ciudadanos comunes, pero supongo que esto último. Creo que el problema principal aquí es la confianza. Estoy pensando, aquí, en los muchos estudiantes que ahora utilizan grandes modelos de lenguaje para generar trabajo académico. Dejando de lado las cuestiones morales, los modelos todavía no son lo suficientemente buenos para ello. Las citas suelen ser incorrectas o estar fuera de contexto, y se pierden los matices de algunos artículos académicos.
Pero esto habla de un punto más amplio: todavía no se puede confiar plenamente en el texto generado y, por lo tanto, sólo se deben utilizar esos sistemas cuando el contexto o el resultado sea de bajo riesgo. La segunda cuestión obvia es la veracidad y la autenticidad. A medida que los modelos se vuelven cada vez más sofisticados, será cada vez más difícil saber con seguridad si son generados por humanos o por máquinas. Todavía no hemos desarrollado, como sociedad, los conocimientos necesarios para emitir juicios razonados sobre el contenido en un panorama mediático rico en IA. Mientras tanto, se aplican las viejas reglas de la alfabetización mediática: comprobar la fuente.
Otro problema es que la IA no es inteligencia humana, por lo que los modelos no son perfectos: pueden ser engañados o corrompidos con relativa facilidad si uno se lo propone.
¿Cuál es la mejor manera de construir IA de manera responsable?
Los mejores instrumentos que tenemos son las evaluaciones algorítmicas de impacto y el cumplimiento normativo, pero lo ideal sería buscar procesos que busquen activamente hacer el bien en lugar de simplemente minimizar el riesgo.
Volviendo a lo básico, el primer paso obvio es abordar la composición de los diseñadores, asegurando que la IA, la informática y la informática como disciplinas atraigan a mujeres, personas de color y representación de otras culturas. Obviamente no es una solución rápida, pero claramente habríamos abordado el tema del sesgo antes si fuera más heterogéneo. Esto me lleva a la cuestión del corpus de datos y de garantizar que sea adecuado para el propósito y que se hagan esfuerzos para eliminar el sesgo apropiado.
Luego surge la necesidad de capacitar a los arquitectos de sistemas para que sean conscientes de las cuestiones morales y sociotécnicas, dándoles el mismo peso que a las disciplinas primarias. Luego debemos dar a los arquitectos de sistemas más tiempo y capacidad para considerar y solucionar cualquier problema potencial. Luego llegamos a la cuestión de la gobernanza y el codiseño, donde las partes interesadas deberían participar en la gobernanza y el diseño conceptual del sistema. Y, por último, debemos someter a prueba exhaustivamente los sistemas antes de que se acerquen a seres humanos.
Idealmente, también deberíamos asegurarnos de que existan mecanismos de exclusión voluntaria, impugnación y recurso, aunque gran parte de esto está cubierto por regulaciones emergentes. Parece obvio, pero también agregaría que debes estar preparado para cancelar un proyecto que está destinado a fracasar bajo cualquier medida de responsabilidad. A menudo hay algo de la falacia de los costos hundidos en juego aquí, pero si un proyecto no se está desarrollando como se esperaba, entonces aumentar su tolerancia al riesgo en lugar de matarlo puede resultar en la muerte prematura de un producto.
Por supuesto, la ley de IA recientemente adoptada por la Unión Europea cubre gran parte de esto.
¿Cómo pueden los inversores impulsar mejor una IA responsable?
Dando un paso atrás, ahora se entiende y acepta generalmente que todo el modelo que sustenta Internet es la monetización de los datos de los usuarios. De la misma manera, gran parte, si no toda, de la innovación en IA está impulsada por es por ganancia de capital. El desarrollo de la IA en particular es un negocio que requiere muchos recursos, y el deseo de ser el primero en llegar al mercado a menudo se ha descrito como una carrera armamentista. Entonces, la responsabilidad como valor siempre está en competencia con esos otros valores.
Eso no quiere decir que a las empresas no les importe, y varios especialistas en ética de la IA también han hecho muchos esfuerzos para replantear la responsabilidad como una forma de distinguirse en el campo. Pero esto parece un escenario improbable a menos que seas un gobierno u otro servicio público. Está claro que ser el primero en llegar al mercado siempre tendrá como contrapartida una eliminación total y exhaustiva de los posibles daños.
Pero volviendo al término responsabilidad. En mi opinión, ser responsables es lo mínimo que podemos hacer. Cuando les decimos a nuestros hijos que confiamos en que serán responsables, lo que queremos decir es que no hagan nada ilegal, vergonzoso o demente. Es literalmente el sótano cuando se trata de comportarse como un ser humano funcional en el mundo. Por el contrario, cuando se aplica a las empresas, se convierte en una especie de estándar inalcanzable. Tienes que preguntarte: ¿cómo es que esto es siquiera una discusión que estamos teniendo?
Además, los incentivos para priorizar la responsabilidad son bastante básicos y se relacionan con el deseo de ser una entidad confiable y al mismo tiempo no querer que sus usuarios sufran daños de interés periodístico. Digo esto porque muchas personas que se encuentran en el umbral de la pobreza, o aquellas que pertenecen a grupos marginados, caen por debajo del umbral de interés, ya que no tienen el capital económico o social para cuestionar cualquier resultado negativo o para llamar la atención del público.
Entonces, volviendo a la pregunta, depende de quiénes sean los inversores. Si es una de las siete grandes empresas de tecnología, entonces está cubierta por lo anterior. Tienen que optar por priorizar distintos valores en cada momento, y no sólo cuando les conviene. Para el público o el tercer sector, la IA responsable ya está alineada con sus valores, por lo que lo que tienden a necesitar es suficiente experiencia y conocimiento para ayudarlos a tomar las decisiones correctas e informadas. En última instancia, impulsar una IA responsable requiere una alineación de valores e incentivos.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio público, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir asesoría profesional, médica, legal o psicológica.