Aunque la inteligencia artificial se está desarrollando rápidamente, parece que el sistema de reconocimiento de imágenes de Google todavía tiene una dificultad que existe desde hace ocho años: detectar con éxito imágenes de gorilas.
Cuando el ingeniero de software Jacky Alciné descubrió que una foto de él y un amigo había sido identificada incorrectamente como gorilas por el algoritmo de reconocimiento de imágenes que se había incluido en la aplicación Fotos de la empresa en 2015, la empresa fue criticada. Ambos Alciné y su compañero son Negro. Google se horrorizó y corrigió rápidamente el error racista al evitar que el programa etiquetara fotografías de gorilas.
El problema aún no se ha rectificado adecuadamente ocho años después. Los usuarios podían buscar sus imágenes por varias especies de animales, como gatos y canguros, pero no por gorilas, babuinos, chimpancés, orangutanes o monos, según un Experimento del New York Times.
Las imágenes de primates todavía no están etiquetadas en el Fotos aplicación No está claro si la corporación no puede reparar el problema o si implementar la función sería demasiado polémico o peligroso. Curiosamente, el error también afectó al software de almacenamiento OneDrive de Microsoft y Aplicación de fotos de Applea pesar de Amazonas Fotos a menudo identificaba erróneamente a otros animales como gorilas.
Alciné expresó su decepción porque Google aún no había resuelto el problema. Nunca voy a tener confianza en esta IA, dijo.
OpenAI promueve el control democrático de AGI
El brazo sin fines de lucro de OpenAI prometió regalar un total de $ 1 millón a aquellos con sugerencias innovadoras sobre cómo crear un sistema democrático que permita a la gente común influir en el avance de la IA.
Hasta el 2 de junio cualquiera puede enviar sus sugerencias. Las diez mejores presentaciones serán elegidas por la startup de IA, que luego otorgará a cada ganador $100,000 para que puedan comenzar a desarrollar prototipos para sus conceptos.
Esta semana, OpenAI dijo en una publicación de blog que “AGI debería beneficiar a toda la humanidad y estar diseñado para ser lo más inclusivo posible”. “Este programa de premios se está iniciando como un primer paso en esa dirección. Estamos buscando equipos de todo el mundo para crear pruebas de concepto para un procedimiento democrático que pueda abordar las preocupaciones sobre las normas que deben cumplir los sistemas de IA.
Según OpenAI, las subvenciones son experimentos y la empresa puede o no poner en uso alguno de los conceptos. La empresa se siente atraída por los enfoques que fomentan la retroalimentación de una amplia gama de personas sobre problemas que no siempre se manejan mejor al cumplir con la letra de la ley.
“Por ejemplo, dado que varios grupos tienen puntos de vista variados sobre las figuras públicas, ¿en qué circunstancias deberían los sistemas de IA denunciar o criticar a esas personas?
¿Cómo se deben representar las opiniones divergentes en los resultados de la IA? ¿Debe la IA representar la personalidad de la persona promedio en el mundo, la nación del usuario, su demografía o algo completamente diferente por defecto? Nadie, empresa o nación debería tener el poder de hacer estos juicios, dijo.
Anthropic recauda $ 450 millones en una inversión de Serie C
Anthropic, una empresa de inteligencia artificial formada en parte por personal anterior de OpenAI, obtuvo $ 450 millones en su ronda de financiación más reciente, que fue encabezada por Spark Capital.
Google, Salesforce Ventures, Sound Ventures, Zoom Ventures y otros inversores están apoyando la inversión de la Serie C. Claude, el modelo de lenguaje extensivo de Anthropic, se está utilizando para inscribir a nuevos consumidores. De acuerdo a CEO Darío Amodeilos fondos se utilizarán para desarrollar más artículos.
“Estamos felices de que estos estimados inversionistas y empresas de tecnología estén ayudando a Anthropic en su objetivo de realizar investigaciones de IA y desarrollar soluciones que promuevan la seguridad. Las soluciones que estamos desarrollando están destinadas a proporcionar servicios de inteligencia artificial confiables que beneficiarán a los consumidores y las empresas tanto hoy como en el futuro.
Anthropic dijo que su objetivo era crear productos que fueran más seguros mediante el uso de métodos de alineación de IA para dirigir su chatbot a seguir instrucciones y proporcionar respuestas aceptables. Recientemente, la empresa aumentó el soporte de tokens de la ventana de contexto de Claude a 100 000, lo que le permitió analizar cientos de páginas de documentos a la vez.
¿Quieres saber cómo registrarte en el motor de búsqueda de Google AI?