sábado, noviembre 25, 2023

La AGI, ¿peligro existencial para la humanidad?

Tras el viaje de idea y vuelta del CEO de OpenAI Sam Altman, que ha pasado en apenas unos días de ser despedido por el consejo de la compañia a volver triunfalmente, ahora sale una revelación tan inquietante como alarmista. La causa de su despido habría sido que la ocultación al consejo, ahora caído endesgracía, de un proyecto para desarrollar una Inteligencia Artifial General (AGI) El nombre del proyecto es Q-Star y a diferencia de los modelos actuales como ChatGPT, no es un algoritmo que usa la estadística para predecir que debería decir en un texto o poner en una imagen sino que es capaz de razonar como un ser humano. Sinceramente, veo más peligro al modelo actual que no entiende ni lo que decimos ni lo que dice, pero que articula textos que parecen tener sentido. Lo mismo se aplica a las imágenes que generan las IAs generativas. Cuesta un mundo que la imagen resultante retrate lo que hemos descrito. En cambio, si la IA supiera razonar, aunque no fuera al mismo nivel que un ser humano, me sentiría mucho más tranquilo. La capacidad de razonar es el primer e imprescinible paso para el entendimiento. La AGI no es un peligro para la humanidad más de lo que lo es cada uno de nosotros. Desde esta humilde bitácora os pido que no os dejéis llevar por los apocalípticos que sólo ven tragedias en el horizonte. Lo único que buscan es nuestra atención. Esa es la era en la que vivimos.

¡Por Isis!

No hay comentarios:

Publicar un comentario