
El Future of Life Institute, una organización sin fines de lucro, ha publicado una carta abierta pidiendo un descanso de al menos seis meses en el desarrollo de modelos de inteligencia artificial más potentes que el recién lanzado GPT-4 de OpenAI, con el fin de establecer protocolos de seguridad y sistemas de supervisión independientes. La carta ha sido firmada por más de 1000 personas, incluyendo personalidades destacadas del mundo de la tecnología y la inteligencia artificial, como Elon Musk, Emad Mostaque, Stuart J. Russell, Yoshua Bengio, Andrew Yang, Yuval Noah Harari y Steve Wozniak.
Estos expertos advierten sobre el peligro potencial que representa el desarrollo de modelos más avanzados de inteligencia artificial sin una supervisión adecuada y el establecimiento de protocolos de seguridad efectivos.
Los firmantes de la carta señalan que la humanidad puede disfrutar de un futuro próspero gracias a la IA, pero solo si confían en que sus efectos serán positivos y que sus riesgos serán manejables. Por lo tanto, piden que se detenga el desarrollo de sistemas de IA más potentes hasta que se establezcan protocolos de seguridad y sistemas de supervisión efectivos.
La carta también hace referencia a un informe reciente de Europol en el que se afirma que el ChatGPT de OpenAI es ahora un arma clave del ‘arsenal’ de muchos criminales, lo que facilita el acceso a información peligrosa.

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, afirma que «los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda de cualquier daño que puedan crear«. El CEO de OpenAI, Sam Altman, es una de las ausencias más destacadas en la lista de firmantes, a pesar de las veces que ha hablado en las últimas semanas sobre cuánto le asusta el ritmo de desarrollo de la IA. Un desarrollo que su propia compañía lidera.
La carta también hace referencia a una declaración reciente de OpenAI sobre la inminencia de la inteligencia artificial general (también conocida como ‘IA fuerte‘) que sugiere que es importante contar con supervisión independiente antes de comenzar a capacitar a los sistemas futuros, así como con acuerdos para limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos.
La carta abierta propone un descanso de al menos seis meses en el desarrollo de sistemas de IA más avanzados, y el establecimiento de protocolos de seguridad efectivos y sistemas de supervisión independientes. Esto permitiría que los expertos evalúen los riesgos y beneficios potenciales de los sistemas de IA más avanzados y desarrollen medidas de seguridad y supervisión adecuadas para mitigar cualquier riesgo potencial. En última instancia, esta carta destaca la necesidad de un enfoque más cuidadoso y responsable para el desarrollo de la inteligencia artificial, y subraya la importancia de la supervisión y regulación efectivas para garantizar que la IA beneficie a la humanidad en lugar de perjudicarla.
Y vosotros que opinais de todo este tema de las IA? Dejadnos vuestra opinión en comentarios!