Sam Altman, director ejecutivo de OpenAI, propone el establecimiento de una agencia de supervisión internacional para el control de las tecnologías de inteligencia artificial (IA). Dada la rápida evolución de la IA, afirma Altman, un enfoque de agencia sería mejor que leyes inflexibles.
Al comparar la IA con los aviones, Altman enfatiza la necesidad de un marco de pruebas de seguridad. Señala que los sistemas de IA pueden tener efectos negativos que trascienden las fronteras de un país.
También subraya que sistemas tan potentes deberían ser inspeccionados por una agencia internacional y sometidos a pruebas de seguridad razonables.
Sam Altman pide supervisión global para garantizar un desarrollo seguro de la IA
Sam Altman explica la necesidad de regular la IA comparándola con la seguridad de los aviones. Dice que un marco de pruebas de seguridad para prevenir víctimas humanas, como en los aviones, es esencial para la IA. Altman dice que cuando se sube a un avión, asume que será seguro y que se debe brindar la misma confianza a la IA.
Sam Altman sostiene que una agencia internacional, en lugar de leyes nacionales, puede ofrecer soluciones más flexibles para regular la IA. Destaca que este tipo de regulación es importante para una tecnología que cambia rápidamente como la IA. Altman sostiene que las leyes actuales no pueden regular adecuadamente la IA y podrían dejar de ser válidas en unos pocos meses.
La Unión Europea aprobó la Ley de Inteligencia Artificial en marzo de este año, cuyo objetivo es categorizar los riesgos de la IA y prohibir los casos de uso inaceptables. Al mismo tiempo, el presidente estadounidense, Joe Biden, firmó una orden ejecutiva exigiendo una mayor transparencia a los modelos de IA más grandes del mundo. El estado de California también sigue a la vanguardia en la regulación de la IA este año, y la legislatura está considerando más de 30 proyectos de ley, según Bloomberg.

Altman afirma que la regulación internacional de las tecnologías de IA debería ser lo suficientemente flexible como para adaptarse a los avances en este campo y establecer un estándar de seguridad global. Esta cooperación internacional podría ser fundamental para minimizar los posibles riesgos globales de la IA.
Mantener la IA bajo control es fundamental tanto para la sostenibilidad de la innovación tecnológica como para la seguridad social. Sin una regulación adecuada, los sistemas de IA pueden comportarse de maneras inesperadas y causar daños imprevistos. En particular, las potentes aplicaciones de IA, como las armas autónomas, podrían plantear graves amenazas a la seguridad internacional si no se controlan.
Por otro lado, una regulación excesiva de la IA podría sofocar la innovación y frenar el desarrollo tecnológico. Unas leyes demasiado estrictas pueden impedir que las empresas y los investigadores desarrollen nuevas aplicaciones de IA, lo que podría provocar que se queden atrás en la competencia económica y tecnológica mundial. Por lo tanto, las regulaciones de IA deben adoptar un enfoque equilibrado entre la innovación tecnológica y la protección de los derechos sociales e individuales.
Como ha sugerido Sam Altman, una agencia internacional podría proporcionar una supervisión global estandarizada de las tecnologías de IA, impulsando la innovación y minimizando los riesgos potenciales. Al fomentar la cooperación internacional y el intercambio de información, este enfoque maximizaría el potencial positivo de la IA y minimizaría los riesgos. En otras palabras, regular las tecnologías de IA al ritmo adecuado y de manera efectiva es fundamental tanto para fomentar nuevos desarrollos como para prevenir daños sociales.
Crédito de la imagen destacada: Emiliano Vittoriosi / Unsplash
Source: Sam Altman aboga por un enfoque global unificado para la regulación de la IA
