TechBriefly ES
  • Tech
  • Business
  • Geek
  • How to
  • about
    • About Tech Briefly
    • Terms and Conditions
    • Privacy Policy
    • Contact Us
No Result
View All Result
TechBriefly ES
No Result
View All Result
Home Tech
Operai se apresura a las pruebas de IA, plantea preocupaciones de seguridad

Operai se apresura a las pruebas de IA, plantea preocupaciones de seguridad

byTB Editor
16/04/2025
in Tech
Reading Time: 3 mins read
Share on FacebookShare on Twitter

Operai ha reducido significativamente el tiempo asignado para las pruebas de seguridad de sus modelos de IA, lo que provocó preocupaciones sobre los riesgos potenciales y los daños asociados con la liberación rápida de nuevos modelos.

Ocho personas, ya sea personal de OpenAI o probadores de terceros, revelaron que ahora tienen “solo días” para completar las evaluaciones en nuevos modelos, un proceso que anteriormente tomó “varios meses”. Esta reducción drástica en el tiempo de prueba se atribuye al deseo de Openi de mantener una ventaja competitiva, particularmente frente a la competencia de modelos de peso abierto desarrollados por compañías como la startup de IA china Deepseek.

Las evaluaciones son cruciales para identificar los riesgos y daños del modelo, como el potencial de jailbreak a un modelo para proporcionar instrucciones para crear biowapons. A modo de comparación, las fuentes señalaron que OpenAi les dio seis meses para revisar GPT-4 antes de su lanzamiento, y solo descubrieron las capacidades con respecto a las capacidades después de dos meses. Según los informes, el proceso de prueba actual para el nuevo modelo de OpenAI, O3, no es tan minucioso y carece del tiempo y los recursos necesarios para atrapar y mitigar adecuadamente los riesgos.

  OpenAI, Google, Microsoft y Anthropic unen fuerzas para regular las 'IA de frontera'

Una persona que actualmente prueba la versión completa de O3 describió el cambio como “imprudente” y “una receta para el desastre”. Se rumorea que Operai lanzará O3 la próxima semana, que según las fuentes apresuraron la línea de tiempo de las pruebas a menos de una semana. Johannes Heidecke, jefe de sistemas de seguridad en OpenAi, afirmó que la compañía tiene “un buen equilibrio de lo rápido que nos movemos y lo minuciosos que somos”. Sin embargo, los evaluadores y expertos en el campo expresan alarma en el tiempo de prueba reducido y los riesgos potenciales asociados con él.

La falta de regulación gubernamental en el área de los modelos de IA se destaca por el cambio en la línea de tiempo de las pruebas de OpenAI. A pesar de firmar acuerdos voluntarios con la administración Biden para realizar pruebas de rutina con el Instituto de Seguridad de AI de EE. UU., Los registros de esos acuerdos han caído bajo la administración Trump. Operai ha abogado por un acuerdo similar para evitar navegar la legislación de estado por estado de mosaico. En contraste, la Ley de AI de la UE requerirá que las empresas arriesguen sus modelos y documenten los resultados.

  Desbloqueando su tableta Android cuando olvide el código de contraseña

Expertos como Shayne Longpre, un investigador de IA en el MIT, comparten las preocupaciones sobre los riesgos potenciales asociados con la rápida liberación de modelos de IA. LongPre señala que el área de superficie para fallas en los sistemas de IA se está creciendo a medida que los sistemas de IA obtienen más acceso a los flujos de datos y las herramientas de software. Hace hincapié en la necesidad de invertir en investigadores independientes de terceros y sugiere medidas como recompensas de errores, acceso más amplio al equipo rojo y protecciones legales para los hallazgos de los probadores para mejorar la seguridad y la seguridad de la IA.

A medida que los sistemas de IA se vuelven más capaces y se usan de formas nuevas y a menudo inesperadas, la necesidad de pruebas y evaluación exhaustivas se vuelve cada vez más importante. LongPre enfatiza que los equipos de pruebas internas no son suficientes y que una comunidad más amplia de usuarios, académicos, periodistas y hackers de sombrero blanco es necesaria para cubrir la superficie de fallas, experiencia e idiomas diversos que ahora sirven estos sistemas.

  Explicación del modo Call of Duty Raid: fecha, jugabilidad y más

Source: Operai se apresura a las pruebas de IA, plantea preocupaciones de seguridad

Related Posts

OpenAI explora anuncios priorizados para respuestas ChatGPT

OpenAI explora anuncios priorizados para respuestas ChatGPT

Samsung revela un proyector Freestyle+ más brillante antes de CES 2026

Samsung revela un proyector Freestyle+ más brillante antes de CES 2026

El nuevo Punkt MC03 presenta un sistema operativo dividido para un mejor control de la privacidad

El nuevo Punkt MC03 presenta un sistema operativo dividido para un mejor control de la privacidad

Apple adelanta algo grande para Fitness+ en 2026

Apple adelanta algo grande para Fitness+ en 2026

OpenAI explora anuncios priorizados para respuestas ChatGPT
Tech

OpenAI explora anuncios priorizados para respuestas ChatGPT

Samsung revela un proyector Freestyle+ más brillante antes de CES 2026
Tech

Samsung revela un proyector Freestyle+ más brillante antes de CES 2026

El nuevo Punkt MC03 presenta un sistema operativo dividido para un mejor control de la privacidad
Tech

El nuevo Punkt MC03 presenta un sistema operativo dividido para un mejor control de la privacidad

Apple adelanta algo grande para Fitness+ en 2026
Tech

Apple adelanta algo grande para Fitness+ en 2026

Honor venderá más de 71 millones de teléfonos inteligentes en 2025
Tech

Honor venderá más de 71 millones de teléfonos inteligentes en 2025

TechBriefly ES

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • About Tech Briefly
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Privacy Policy
  • TechBriefly
  • Terms and Conditions

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Geek
  • How to
  • about
    • About Tech Briefly
    • Terms and Conditions
    • Privacy Policy
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.