fbpx
InicioCiberseguridadLíderes del sector tecnológico piden pausar el avance del modelo de lenguaje...

Líderes del sector tecnológico piden pausar el avance del modelo de lenguaje GPT

La solicitud firmada por grandes ejecutivos del mundo de la tecnología exige detener el entrenamiento de la inteligencia artificial para generar protocolos seguros.

A principios de esta semana, un grupo de más de 1.800 líderes y especialistas del mundo de la tecnología, como Elon Musk, Emad Mostaque o Craig Peters, han firmado una carta abierta en la que se pide a todos los laboratorios de IA de pausar durante seis meses el desarrollo de sistemas de IA más potentes que GPT-4.

¿La motivación de su petición? «Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA», afirman en la carta publicada por Future of Life Institute, la organización sin ánimo de lucro con la misión de reducir los riesgos catastróficos y existenciales globales.

El enfoque de OpenAI

OpenAI aclara la intención empresarial de planificar el desarrollo de la inteligencia artificial general (AGI, por sus siglas en inglés), siendo un objetivo importante y valioso que sin embargo plantea importantes desafíos técnicos y éticos. La compañía avisa que su trabajo en AGI incluye la seguridad, la transparencia, la colaboración y la responsabilidad.

OpenAI argumenta que la seguridad es particularmente importante, ya que AGI tiene el potencial de ser extremadamente poderoso y debe ser diseñado para evitar riesgos y daños accidentales. La compañía no solo se centrará en el desarrollo de AGI, sino que también explorará otras tecnologías relacionadas, como las redes neuronales, la robótica y la simulación. OpenAI aclara que AGI es una apuesta tecnológica fundamental pero desafiante, y se compromete a trabajar de manera responsable y colaborativa para lograr estos objetivos.

El debate de los expertos

Aunque una pausa podría servir para ayudar a comprender mejor y regular los riesgos sociales creados por la inteligencia artificial generativa, algunos especialistas argumentan que podría tratarse de un intento de los competidores de ponerse al día en la investigación de la IA.

Avivah Litan, analista de Gartner, declara a VentureBeat que considera «la pausa de seis meses como una petición para detener el entrenamiento de modelos más potentes que GPT-4». Steve Grobman, director de tecnología de McAfee, informa a VentureBeat sobre sus sensaciones al respecto y afirma que, «cuando se producen avances tecnológicos, contar con organizaciones y empresas con ética y normas que sigan haciendo avanzar la tecnología es imprescindible para garantizar que la tecnología se utilice de la forma más responsable posible», y que además «detener el desarrollo de la próxima generación de IA no impedirá que personas sin escrúpulos sigan llevando la tecnología en direcciones peligrosas».

Por otra parte, varios expertos en ciberseguridad argumentan que detener el desarrollo de GPT-4 no resolvería los problemas de seguridad, ya que otras organizaciones podrían continuar trabajando en modelos similares sin las mismas preocupaciones éticas. Además, subrayan que la creación de modelos de lenguaje más avanzados y precisos puede ser la mejor manera de abordar el problema, ya que estos modelos pueden ser entrenados para detectar y filtrar automáticamente el contenido peligroso. En resumen, muchos expertos destacan que la pausa en el desarrollo de GPT-4 es innecesaria y que, contrariamente, es importante centrarse en el desarrollo de medidas de seguridad más avanzadas y efectivas.

artículos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí