

El fabricante de ChatGPT, OpenAI, ha propuesto un nuevo organismo internacional para regular la inteligencia artificial (IA). Dirigida por el CEO Sam Altman, la compañía dijo que los sistemas de IA en los próximos diez años podrían tener habilidades expertas en la mayoría de los dominios y podrían realizar tareas productivas similares a las de las corporaciones más grandes de la actualidad.
En una publicación OpenAI explicó el motivo de la regularización de la IA, la compañía dijo: “La gobernanza de los sistemas más poderosos, así como las decisiones con respecto a su implementación, deben tener una fuerte supervisión pública. Creemos que las personas de todo el mundo deberían decidir democráticamente los límites y los valores predeterminados de los sistemas de IA".
"Todavía no sabemos cómo diseñar un mecanismo de este tipo, pero planeamos experimentar con su desarrollo". OpenAI agregó.
El plan de OpenAI para abordar los desafíos que plantea la IA:
OpenAI propuso una agenda de tres puntos para mitigar los riesgos de los sistemas de IA superinteligentes del futuro.
1) Coordinación entre los creadores de IA: OpenAI sugiere que las empresas que fabrican sistemas de IA como Bard o Bing deberían hacer un esfuerzo coordinado para garantizar que el desarrollo de la 'superinteligencia' ocurra de una manera que garantice la seguridad y ayude a la integración sin problemas. de estos sistemas en la sociedad.
El fabricante de ChatGPT ha sugerido dos formas en las que podría llevarse a cabo esta coordinación: los gobiernos de todo el mundo podrían establecer un sistema regulatorio que involucre a los principales fabricantes de IA, o estas empresas podrían acordar entre ellas limitar el crecimiento de la IA a una determinada tasa por año.
2) Organismo regulador internacional: OpenAI ha sugerido un nuevo organismo internacional muy parecido a la Agencia Internacional de Energía Atómica para mitigar los riesgos existenciales que plantean los sistemas de IA superinteligentes. Según OpenAI, el nuevo organismo propuesto debe tener la autoridad para inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc.
3) Superinteligencia más segura: OpenAI dice que la compañía está trabajando para hacer que los sistemas de inteligencia artificial sean más seguros y más alineados con los valores humanos y siguiendo la intención humana.