ChatGPT desvelan el momento en que esperan que la IA supere la inteligencia humana

ChatGPT, esa máquina parlante capaz de responder casi cualquier pregunta que le haga el usuario, aspira a cambiar el mundo. Y, por el camino, a mejorar su funcionamiento y sus capacidades. De acuerdo con un reciente artículo publicado por OpenAI, la empresa desarrolladora, los sistemas basados en inteligencia artificial, como este, pueden llegar a ser más hábiles que los grandes expertos humanos en apenas una década. 

Dicho de otro modo, de acuerdo con el vaticinio de la empresa que ha puesto patas arriba internet, en 10 años, ChatGPT puede llegar a diagnosticar enfermedades mejor que cualquier médico, escribir novelas inalcanzables para el autor humano o, incluso, crear planes de viaje no podría proporcionar una empresa dedicada al turismo. El auge de esa súper inteligencia artificial (IA), queda claro, puede tener sus puntos positivos, aunque como OpenAI reconoce, queda por ver si su desarrollo sale bien o termina convirtiéndose en un riesgo para la sociedad. 

«La superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro mucho más próspero; pero tenemos que gestionar el riesgo para llegar allí», reconocen desde la compañía. 

En el texto, firmado por tres de los fundadores de OpenAI, entre ellos su director ejecutivo Sam Altman, se vuelve a subrayar las necesidad de que se cree un organismo internacional similar a la IAEA (Organismo Internacional de Energía Atómica), que se encargaría de controlar el desarrollo de sistemas basados en inteligencia artificial. Altman ya apuntó su necesidad hace unos días, en el Senado de Estados Unidos ante los legisladores, así como en Madrid o Londres, ciudades que visitó la semana pasada. 

La IA puede ayudar, y mucho, a nivel social y empresarial. Es capaz de mejorar el mundo y aumentar enormemente la productividad del usuario. Sin embargo, también amenaza con dejar obsoletos muchos empleos. Así lo han reconocido trabajadores de OpenAI en el pasado. A este problema se suman otros, como la posibilidad de que soluciones como ChatGPT se utilicen para generar desinformación o sean explotadas por el cibercrimen. 

La UE está preparándose para poner bajo control este tipo de sistemas para limitar los riesgos. A pesar de que desde OpenAI solicitan una regulación de la tecnología, la empresa está preocupada porque la futura normativa pueda afectar a innovación. Recientemente, Altman dejó caer que intentaría cumplir con las exigencias de Bruselas, pero, si le resultase imposible, ChatGPT podría dejar de ser operativo en suelo comunitario. 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *