Anthropic está lanzando un nuevo programa para financiar el desarrollo de nuevos puntos de referencia para evaluar el rendimiento y el impacto de los modelos de IA, incluidos modelos generativos como el propio Claude.
La nueva medida de la empresa cambiará la forma en que se evalúan los modelos de IA, con el objetivo de crear puntos de referencia que reflejen con precisión las aplicaciones del mundo real y garanticen la seguridad de la IA.
Una visión histórica de los puntos de referencia de la IA
Los puntos de referencia de la IA desempeñan un papel importante en la evaluación del rendimiento de los modelos. Tradicionalmente, miden tareas como el reconocimiento de imágenes y el procesamiento del lenguaje natural. Sin embargo, se necesitan puntos de referencia más completos y realistas para sistemas más avanzados, como los modelos generativos. Los puntos de referencia tradicionales no logran captar la complejidad de las aplicaciones del mundo real y no reflejan los desafíos de las tecnologías de IA modernas.

¿Por qué Anthropic tomó tal iniciativa?
Anthropic pretende abordar las deficiencias de los parámetros de referencia existentes financiando métodos de evaluación nuevos y completos. Centrándose en la seguridad de la IA y los impactos sociales, la empresa quiere desarrollar criterios para medir las capacidades avanzadas. El programa tiene como objetivo crear parámetros de referencia lo suficientemente estrictos, realistas y relevantes para la seguridad.
El programa se centrará en tres áreas principales: evaluaciones de seguridad de la IA, parámetros de referencia avanzados de capacidad y seguridad, e infraestructura, herramientas y métodos de evaluación. Al abordar estas áreas, Anthropic pretende crear parámetros de referencia escalables y listos para usar.
Áreas de enfoque clave del programa
Una de las principales áreas de enfoque son las evaluaciones de seguridad de la IA, que miden tareas con implicaciones significativas para la seguridad, como la ejecución de ciberataques. Otra área de enfoque son los puntos de referencia de seguridad y capacidad avanzados, que miden el desempeño en tareas complejas que requieren un alto nivel de experiencia. La tercera área es el desarrollo de infraestructura, herramientas y métodos para crear evaluaciones.
Principios de una evaluación eficaz
Las evaluaciones eficaces deben ser rigurosas y significativas. Las evaluaciones deben ser lo suficientemente difíciles y no deben incluirse en los datos de entrenamiento del modelo de IA. La eficiencia y la escalabilidad son principios importantes. Las evaluaciones deben desarrollarse con el aporte de expertos en el área. Una buena documentación y reproducibilidad son esenciales para la transparencia y la replicabilidad.

Proceso de solicitud y revisión
Anthropic ha establecido un proceso estructurado para la presentación y revisión de propuestas para los nuevos criterios. Las organizaciones interesadas pueden enviar sus propuestas a través del formulario de solicitud. La empresa brinda apoyo financiero y ofrece opciones de financiación adaptadas a las necesidades del proyecto.
Las propuestas seleccionadas tendrán la oportunidad de colaborar con los expertos de Anthropic. La colaboración garantizará que las evaluaciones se desarrollen según estándares elevados y aborden los desafíos más urgentes en materia de seguridad y rendimiento de la IA.
La iniciativa de Anthropic para financiar la próxima generación de puntos de referencia de IA tiene como objetivo mejorar la evaluación de los modelos de IA. Al abordar las limitaciones de los puntos de referencia existentes, el programa tiene como objetivo crear evaluaciones más completas y significativas. A través de la colaboración con organizaciones de terceros y el apoyo de expertos en el área, Anthropic espera elevar el campo de la seguridad de la IA y agregar herramientas valiosas al ecosistema de IA.
Crédito de la imagen destacada: vecstock / Freepik
Source: Anthropic quiere financiar una nueva y más completa generación de puntos de referencia de IA





