Operai está implementando medidas de seguridad estrictas para proteger su propiedad intelectual del espionaje corporativo, según un informe de Financial Times. La compañía ha revisado sus operaciones de seguridad, incluidas las políticas de ‘carpas de información’ que limitan el acceso de los empleados a nuevos algoritmos en desarrollo. Los empleados ahora requieren escaneos de huellas digitales para ingresar a ciertas habitaciones, y una “política de salida de denegación por defecto” evita las conexiones a Internet no autorizadas para los pesos de los modelos.
Estas acciones siguen a las afirmaciones de OpenAI que la startup de IA china Deepseek copió sus modelos utilizando técnicas de destilación. Los informes anteriores indicaron que los investigadores de seguridad de Microsoft sospechaban que las personas vinculadas a Deepseek estaban exfiltrando datos significativos a través de la API de OpenAI. Operai también declaró a FT que observaba “alguna evidencia de destilación”. Anteriormente, la compañía comenzó a requerir la verificación de identificación del gobierno para desarrolladores que acceden a algoritmos de IA avanzados. El modelo de razonamiento R1 de código abierto de Deepseek, comparable al O1 de OpenAI pero a menor costo, ha impulsado las preocupaciones sobre la amenaza competitiva de los modelos chinos de IA.
Source: Operai aprieta la seguridad en medio de preocupaciones de espionaje, copia del modelo





