Operai ha reducido significativamente el tiempo asignado para evaluar nuevos modelos de IA de varios meses a solo días, lo que provocó preocupaciones entre el personal y los evaluadores de terceros sobre las evaluaciones de seguridad exhaustivas.
Ocho personas, ya sea personal de OpenAI o de terceros, revelaron que se les dio “solo días” para completar las evaluaciones en nuevos modelos, un proceso que, según ello, normalmente tomarían “varios meses”. Las evaluaciones son cruciales para la superficie de los riesgos del modelo y otros daños, como si un usuario podría encabezar un modelo para proporcionar instrucciones para crear una capacidad biológica. A modo de comparación, las fuentes señalaron que OpenAi les dio seis meses para revisar GPT-4 antes de su lanzamiento, y las capacidades en cuestión solo se descubrieron después de dos meses.
Las fuentes agregaron que las pruebas de OpenAI no son tan exhaustivas como solían ser y carecen del tiempo y los recursos necesarios para atrapar adecuadamente y mitigar los riesgos. “Tuvimos pruebas de seguridad más exhaustivas cuando [the technology] fue menos importante “, dijo una persona que prueba O3, la versión completa de O3-Mini. Describieron el cambio como” imprudente “y” una receta para el desastre “. El Rush se atribuye al deseo de OpenAi de mantener una ventaja competitiva, especialmente a medida que los modelos de peso abierto de competidores como la startup de IA china Deepseek ganan más terreno.
Se rumorea que Operai lanzará O3 la próxima semana, que según las fuentes apresuraron la línea de tiempo a menos de una semana. Este cambio resalta la falta de regulación gubernamental para los modelos de IA, incluidos los requisitos para revelar daños modelo. Empresas como OpenAI firmaron acuerdos voluntarios con la administración Biden para realizar pruebas de rutina con el Instituto de Seguridad de AI de EE. UU., Pero estos acuerdos se han caído bajo la administración Trump.
Durante el período de comentarios abiertos para el próximo Plan de Acción de AI de la Administración Trump, OpenAI abogó por un acuerdo similar para evitar navegar la legislación estatal por estado de mosaico. Fuera de los EE. UU., La Ley de AI de la UE requerirá que las empresas arriesguen sus modelos y documenten los resultados. Johannes Heidecke, Jefe de Sistemas de Seguridad de OpenAi, afirmó: “Tenemos un buen equilibrio de lo rápido que nos movemos y lo minuciosos que somos”. Sin embargo, los probadores expresaron alarma, especialmente considerando otros agujeros en el proceso, incluida la evaluación de versiones menos avanzadas de modelos lanzados al público o hacer referencia a las capacidades de un modelo anterior en lugar de probar el nuevo en sí.
Source: OpenAI acelera las pruebas de IA, provoca problemas de seguridad
