Operai está considerando un nuevo proceso de verificación para que las organizaciones accedan a sus futuros modelos de IA a través de su API, con el objetivo de mejorar la seguridad y mitigar el uso inseguro de IA.
Según una página de soporte publicada en el sitio web de OpenAI, el proceso de verificación, llamado “organización verificada”, está diseñada para desbloquear el acceso a los modelos y capacidades más avanzados en la plataforma OpenAI. El proceso requiere una identificación emitida por el gobierno de uno de los países respaldados por la API de OpenAI. Una identificación solo puede verificar una organización cada 90 días, y no todas las organizaciones serán elegibles para la verificación.
El proceso de verificación está destinado a mitigar el uso inseguro de la IA mientras continúa haciendo que los modelos avanzados estén disponibles para la comunidad de desarrolladores más amplio. Operai declaró que una pequeña minoría de desarrolladores usa intencionalmente las API de OpenAI en violación de sus políticas de uso, lo que requiere el nuevo paso de verificación. La compañía toma en serio su responsabilidad de garantizar que la IA sea ampliamente accesible y se use de manera segura.
El nuevo proceso de verificación podría estar dirigido a reforzar la seguridad en torno a los productos de Openai a medida que se vuelven más sofisticados y capaces. Openai ha publicado varios informes sobre sus esfuerzos para detectar y mitigar el uso malicioso de sus modelos, incluso por grupos supuestamente con sede en Corea del Norte. La verificación lleva unos minutos y requiere una identificación válida emitida por el gobierno.
El movimiento también puede estar destinado a evitar el robo de IP. Según un informe de Bloomberg a principios de este año, Operai estaba investigando si un grupo vinculado con Deepseek, un laboratorio de IA con sede en China, exfiltró grandes cantidades de datos a través de su API a fines de 2024, posiblemente por modelos de capacitación, una violación de los términos de OpenAI.
Operai bloqueó el acceso a sus servicios en China el verano pasado, destacando aún más sus esfuerzos para administrar y asegurar su uso de API. Las acciones de la compañía demuestran su compromiso de garantizar el uso seguro y responsable de sus modelos de IA.
Source: OpenAI requiere ID verificados para el futuro acceso de IA





