- La herramienta de inteligencia artificial de Meta, Imagine, ha sido criticada por tener dificultades para crear imágenes de parejas o amigos interraciales.
- Al igual que en el incidente de Géminis, Imagine lucha por representar las relaciones interraciales con precisión.
- Meta reconoce el problema y promete abordar los sesgos en los sistemas de IA a través de comentarios y mejoras de los usuarios.
- Las preocupaciones éticas que rodean las herramientas de renderizado de IA resaltan la necesidad de que los gigantes tecnológicos prioricen la transparencia y aborden eficazmente los prejuicios raciales.
La industria de la IA está en crisis entre la herramienta de creación de IA de Meta, Imagine, y Meta AI, Sora y DALL-E 3. Según informes recientes, la herramienta de IA de Meta ha sido criticada por tener problemas para crear imágenes de parejas o amigos interraciales.
En las pruebas realizadas por CNN, la herramienta produjo imágenes de parejas de la misma raza en lugar de crear imágenes de parejas interraciales. Esto es similar al incidente de Géminis que compartimos con ustedes antes. A Géminis también se le ocurrió un problema similar y recibió una gran reacción.
Aquí encontrará todo lo que necesita saber…
Imagine con Meta AI no puede generar imágenes de personas de diferentes razas
Con el avance de la tecnología, la inteligencia artificial se ha generalizado en todos los sectores, incluidas las herramientas de creación de imágenes.
Al entrar en detalles de las pruebas, la herramienta de renderizado de IA supuestamente tuvo problemas para renderizar imágenes de pares asiático-blanco, negro-blanco y asiático-negro.
Meta reconoció el problema y lo vinculó a una publicación de blog publicada en septiembre sobre la creación responsable de funciones eficientes de IA. La publicación del blog de la compañía decía:
“Estamos tomando medidas para reducir el sesgo. Abordar los posibles sesgos en los sistemas productivos de IA es una nueva área de investigación. Al igual que con otros modelos de IA, hacer que más personas utilicen las funciones y compartan comentarios puede ayudarnos a perfeccionar nuestro enfoque”.
Los gigantes tecnológicos deben hacer más para eliminar los prejuicios raciales en los modelos de IA.
Mientras tanto, Sora, la herramienta de producción de vídeos de OpenAI, ha lanzado un nuevo vídeo musical. Puedo decir que realmente hizo un trabajo increíble. Por otro lado, el director ejecutivo de YouTube, Neal Mohan, advirtió a OpenAI sobre el entrenamiento de Sora. La advertencia se produjo después de que la CTO de OpenAI, Mira Murati, no respondiera la pregunta: “¿Sora fue entrenado con videos de YouTube?”, preguntó Joanna Stern del Wall Street Journal el mes pasado.
Puedes ver el vídeo musical producido por Sora a continuación:
Si bien las herramientas de creación de imágenes de IA son interesantes por sus posibilidades, también plantean importantes cuestiones éticas, como los prejuicios raciales. Los gigantes tecnológicos deben hacer más para abordar estos problemas y avanzar de manera transparente.
Crédito de la imagen destacada: Dima Solomin / Unsplash
Source: El generador de imágenes de IA de Meta no logra producir imágenes de parejas interraciales