Para brindarles a las académicas y a otras personas centradas en la IA su merecido (y esperado) tiempo en el centro de atención, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúe el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lea más perfiles aquí.
brandi Nonnecke es el director fundador del CITRIS Policy Lab, con sede en UC Berkeley, que apoya la investigación interdisciplinaria para abordar cuestiones relacionadas con el papel de la regulación en la promoción de la innovación. Nonnecke también codirige el Centro de Derecho y Tecnología de Berkeley, donde dirige proyectos sobre IA, plataformas y sociedad, y el Centro de Políticas de IA de UC Berkeley, una iniciativa para capacitar a investigadores para desarrollar marcos de políticas y gobernanza de IA eficaces.
En su tiempo libre, Nonnecke presenta una serie de videos y podcasts, TecHype, que analiza las políticas, regulaciones y leyes tecnológicas emergentes, brinda información sobre los beneficios y riesgos e identifica estrategias para aprovechar la tecnología para siempre.
Preguntas y respuestas
Brevemente, ¿cómo empezaste en la IA? ¿Qué te atrajo del campo?
Llevo casi una década trabajando en la gobernanza responsable de la IA. Mi formación en tecnología, políticas públicas y su intersección con los impactos sociales me atrajo al campo. La IA ya está omnipresente y tiene un profundo impacto en nuestras vidas, para bien o para mal. Para mí es importante contribuir significativamente a la capacidad de la sociedad para aprovechar esta tecnología para siempre en lugar de quedarse al margen.
¿De qué trabajo estás más orgulloso (en el campo de la IA)?
Estoy realmente orgulloso de dos cosas que hemos logrado. En primer lugar, la Universidad de California fue la primera universidad en establecer principios de IA responsable y una estructura de gobernanza para garantizar mejor la adquisición y el uso responsable de la IA. Nos tomamos en serio nuestro compromiso de servir al público de manera responsable. Tuve el honor de copresidir el Grupo de Trabajo Presidencial de la UC sobre IA y su posterior Consejo permanente de IA. En estos roles, he podido obtener experiencia de primera mano pensando en cómo hacer operativos mejor nuestros principios de IA responsable para salvaguardar a nuestros profesores, personal, estudiantes y las comunidades más amplias a las que servimos. En segundo lugar, creo que es fundamental que el público comprenda las tecnologías emergentes y sus beneficios y riesgos reales. Lanzamos TecHype, una serie de videos y podcasts que desmitifica las tecnologías emergentes y brinda orientación sobre intervenciones técnicas y políticas efectivas.
¿Cómo afrontar los desafíos de la industria tecnológica dominada por los hombres y, por extensión, de la industria de la inteligencia artificial dominada por los hombres?
Sea curioso, persistente y no se deje intimidar por el síndrome del impostor. Me ha parecido crucial buscar mentores que apoyen la diversidad y la inclusión, y ofrecer el mismo apoyo a otros que ingresan en este campo. Construir comunidades inclusivas en tecnología ha sido una manera poderosa de compartir experiencias, consejos y aliento.
¿Qué consejo le darías a las mujeres que buscan ingresar al campo de la IA?
Para las mujeres que ingresan al campo de la IA, mi consejo es triple: busquen conocimientos sin descanso, ya que la IA es un campo que evoluciona rápidamente. Adopte la creación de redes, ya que las conexiones abrirán puertas a oportunidades y ofrecerán un apoyo invaluable. Y defienda sus derechos y los de los demás, ya que su voz es esencial para dar forma a un futuro inclusivo y equitativo para la IA. Recuerde, sus perspectivas y experiencias únicas enriquecen el campo e impulsan la innovación.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
Creo que uno de los problemas más apremiantes que enfrenta la IA a medida que evoluciona es no quedarse obsesionado con los últimos ciclos publicitarios. Estamos viendo esto ahora con la IA generativa. Claro, la IA generativa presenta avances significativos y tendrá un impacto tremendo, bueno y malo. Pero hoy en día se utilizan otras formas de aprendizaje automático que subrepticiamente toman decisiones que afectan directamente la capacidad de todos para ejercer sus derechos. En lugar de centrarnos en las últimas maravillas del aprendizaje automático, es más importante que nos centremos en cómo y dónde se aplica el aprendizaje automático, independientemente de su destreza tecnológica.
¿Cuáles son algunas de las cuestiones que los usuarios de IA deberían tener en cuenta?
Los usuarios de IA deben ser conscientes de las cuestiones relacionadas con la privacidad y la seguridad de los datos, el potencial de sesgo en la toma de decisiones de IA y la importancia de la transparencia en la forma en que los sistemas de IA operan y toman decisiones. Comprender estos problemas puede permitir a los usuarios exigir sistemas de inteligencia artificial más responsables y equitativos.
¿Cuál es la mejor manera de construir IA de manera responsable?
La construcción responsable de IA implica integrar consideraciones éticas en cada etapa de desarrollo e implementación. Esto incluye la participación de diversas partes interesadas, metodologías transparentes, estrategias de gestión de prejuicios y evaluaciones de impacto continuas. Dar prioridad al bien público y garantizar que las tecnologías de IA se desarrollen teniendo en cuenta los derechos humanos, la equidad y la inclusión son fundamentales.
¿Cómo pueden los inversores impulsar mejor una IA responsable?
¡Ésta es una pregunta tan importante! Durante mucho tiempo nunca discutimos expresamente el papel de los inversores. ¡No puedo expresar lo suficiente el impacto que tienen los inversores! Creo que el dicho de que “la regulación sofoca la innovación” se usa en exceso y a menudo es falso. En cambio, creo firmemente que las empresas más pequeñas pueden experimentar la ventaja de actuar tarde y aprender de las empresas de IA más grandes que han estado desarrollando prácticas responsables de IA y la orientación que surge de la academia, la sociedad civil y el gobierno. Los inversores tienen el poder de dar forma a la dirección de la industria haciendo de las prácticas responsables de IA un factor crítico en sus decisiones de inversión. Esto incluye apoyar iniciativas que se centren en abordar los desafíos sociales a través de la IA, promover la diversidad y la inclusión dentro de la fuerza laboral de IA y abogar por una gobernanza sólida y estrategias técnicas que ayuden a garantizar que las tecnologías de IA beneficien a la sociedad en su conjunto.
————————————————– —————–
Esta página transcribe artículos de diversas fuentes de dominio público, las ideas expresadas son responsabilidad de sus respectivos autores por lo cual no nos hacemos responsables del uso o la interpretación que se les dé. La información publicada nunca debe sustituir asesoría profesional, médica, legal o psicológica.