OpenAI, el laboratorio de investigación de IA, publicó recientemente una declaración que aborda las preocupaciones de seguridad en torno a sus productos. La declaración surge en respuesta a varias controversias que han surgido en las últimas semanas, incluido un llamado de los líderes de la industria para detener el desarrollo de modelos como GPT-4, la prohibición de ChatGPT en Italia y una queja ante la Comisión Federal de Comercio sobre los riesgos. de desinformación peligrosa, particularmente para los niños.
El compromiso de seguridad de OpenAI tiene como objetivo asegurar al público que sus productos son seguros y admitir que todavía hay margen de mejora. La compañía enfatizó que trabaja para garantizar que la seguridad esté integrada en sus sistemas en todos los niveles y se compromete a colaborar con los legisladores y las partes interesadas para crear un ecosistema de IA seguro.
Sin embargo, la declaración carecía de detalles sobre cómo OpenAI planea mitigar el riesgo, hacer cumplir sus políticas o trabajar con los reguladores.
Elon Musk y Steve Wozniak han publicado una carta abierta pidiendo una pausa de seis meses
Una disculpa híbrida de refutación que se publicó el jueves buscaba tranquilizar al público de que los productos de la empresa son seguros y reconocer que hay espacio para el crecimiento.
La promesa de seguridad de OpenAI suena como una reacción de golpe a un topo a todas las controversias recientes. Solo en la última semana, ChatGPT ha sido completamente prohibido en Italia, Elon Musk y Steve Wozniak han publicado una carta abierta pidiendo una pausa de seis meses en el desarrollo de modelos como GPT-4, y se ha presentado una denuncia ante la Comisión Federal de Comercio alegando que ChatGPT plantea riesgos peligrosos de desinformación, particularmente para los niños.
Ah, y estaba esa falla que permitía que cualquiera pudiera ver las comunicaciones de chat de los usuarios y la información privada.

Según OpenAI, intenta “garantizar que la seguridad esté integrada en nuestro sistema en todos los niveles”. Antes de lanzar GPT-4, OpenAI pasó más de seis meses “probando rigurosamente” y dijo que está buscando alternativas de verificación para implementar su requisito de edad mayor de 18 años.
La empresa enfatizó que no vende información confidencial y solo la usa para mejorar los modelos de IA. También declaró su disposición a trabajar con los legisladores y continuar trabajando con las partes interesadas de la IA “para crear un ecosistema de IA seguro”.

OpenAI admitió cerca de la mitad del compromiso de seguridad que crear un LLM seguro requiere comentarios del mundo real. Afirma que aprender de los comentarios del público hará que los modelos sean más seguros y permitirá que OpenAI controle el uso indebido.
“El uso en el mundo real también nos ha llevado a desarrollar políticas cada vez más matizadas contra el comportamiento que representa un riesgo real para las personas al tiempo que permite las muchas aplicaciones beneficiosas de nuestra tecnología”.
OpenAI ofreció “detalles sobre el enfoque de la seguridad”, pero aparte de la promesa de investigar la verificación de edad, la mayoría de la declaración se lee como clichés estándar. Hubo poca información sobre cómo pretende reducir el riesgo, implementar políticas o colaborar con las autoridades.
OpenAI se complace en crear productos de IA de manera transparente, pero el anuncio ofrece pocos detalles sobre lo que planea hacer ahora que su IA está en libertad.

¿Cuál es la lógica detrás de OpenAI?
Según OpenAI, su modelo ChatGPT, que se enseñó utilizando el Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) método de aprendizaje automático, puede simular diálogos, responder consultas de seguimiento, confesar errores, desafiar premisas incorrectas y rechazar solicitudes inapropiadas.
Inicialmente, los profesores humanos de IA proporcionaron al modelo interacciones en las que actuaban como clientes y asistentes de IA. La versión de prueba pública del bot intenta comprender las consultas y respuestas de los usuarios con respuestas detalladas que se asemejan a un texto escrito por humanos en un formato conversacional.
Si aún no ha experimentado ChatGPT, puede hacerlo ahora mismo haciendo clic aquí.





