Ha quedado claro que la IA, poco a poco, comienza a estar en todas partes y puedes verla operando de forma simple en un ordenador o haciendo tareas más complejas en misiones espaciales, por ejemplo.
Sin embargo, hay algo que lleva rondado la cabeza de muchos durante algunos años y es precisamente ese ritmo tan frenético y exponencial de desarrollo que está experimentando la inteligencia artificial. Figuras como el CEO de Tesla ya lleva un tiempo advirtiendo sobre los peligros de una IA descontrolada.
En una entrevista en el podcast The Joe Rogan Experience en 2018, Elon Musk ya alertaba sobre la necesidad de establecer límites claros. “Es un arma de doble filo. La capacidad es enorme, pero también tenemos que tener cuidado sobre cómo se desarrolla la tecnología y controlarla. No queremos crear algo que no podamos apagar”, afirmó entonces. Y ahora, en 2025, sus palabras resuenan más fuertes que nunca.
El problema radica en la autonomía que no para de crecer en la IA. Musk teme que esta tecnología pueda alcanzar niveles de consciencia que hagan casi imposible controlarla. En su opinión, es vital garantizar que los humanos tengan siempre la última palabra sobre las decisiones tomadas por sistemas inteligentes.
Por supuesto, comentar que este cierto temor no es exclusivo del multimillonario y Sam Altman, CEO de OpenAI, y otros líderes del sector también han dejado clara su inquietud con respecto a este tema.
Pero, ¿qué significa realmente 'perder el control'? Según Musk, podría dar pie a escenarios como el uso de armas autónomas controladas por IA o sistemas que perpetúen sesgos y discriminación sin supervisión humana. Incluso pone sobre la mesa la posibilidad de que la IA reemplace trabajos muy importantes, como el de profesor, lo que transformaría por completo sectores como la educación.
¿Puede ser realmente la inteligencia artificial un peligro para la humanidad?
Chris Sestito, otro experto en inteligencia artificial, ha añadido problemas extra relacionados con el desarrollo descontrolado de esta tecnología. Según él, uno de los mayores riesgos es el sesgo inherente en los algoritmos actuales.
Este no habla de una rebelión de las máquinas como tal, aunque tampoco lo descarta por completo, sino de casos mucho más prácticos y en cierta parte realistas. Es decir, que incluso hoy ya se pueden dar. Por ejemplo, problemas técnicos directamente relacionados con los algoritmos de la IA pueden ayudar a cualquiera a fabricar un arma.
Por otro lado, comenta que estos sistemas pueden perpetuar discriminación y desigualdad si no se diseñan con cuidado. Además, hace especial hincapié en el peligro de los deepfakes y la desinformación generada por herramientas basadas en IA.
Tanto Sestito como Musk coinciden en un punto clave: se necesita una regulación con una buena y potente base para evitar problemas y garantizar un desarrollo ético y seguro. Sin normas claras, los riesgos relacionados con la inteligencia artificial seguirán creciendo a un ritmo cada vez más rápido.
El Gobierno de España aprueba una ley para el buen uso de la IA
Siguiendo precisamente esta idea, la Unión Europea y ahora en concreto España parece que están siguiendo este camino, aunque haya voces más o menos de acuerdo con cómo se está regulando la IA.
Según el ministro para la Transformación Digital, Óscar López, la IA tiene un potencial increíble para mejorar las vidas de todos, pero también puede ser usada para cosas no tan positivas, como difundir noticias falsas o manipular a la gente. Es por esto que, el Gobierno quiere asegurarse de que esta tecnología se use de una forma más controlada.
Sin ir más lejos, una de las medidas más importantes de esta ley es la obligación de identificar claramente cualquier contenido —imágenes, vídeos, audios— que haya sido generado o manipulado con IA. Si no se cumple esta norma, las multas podrían llegar hasta los 7,5 millones de euros. ¿El objetivo? Evitar que engañen con noticias o vídeos falsos.
Para asegurarse de que esta ley se cumple, el Gobierno ha creado un sistema de supervisión en el que participan varias autoridades. La Agencia Española de Protección de Datos se encargará de vigilar los sistemas que usen datos biométricos, como el reconocimiento facial. El Consejo General del Poder Judicial supervisará los sistemas que se usen en la administración de justicia. Y la Junta Electoral Central controlará los sistemas que puedan influir en las elecciones.