Giovanni Marchetti
Miembro Activo de la instituciónHoy, el desarrollo de la inteligencia artificial se presenta como uno de los mayores avances en la historia de la humanidad. Promete eficiencia, progreso y soluciones a problemas que durante décadas parecían imposibles. Sin embargo, detrás de esta narrativa optimista, empieza a surgir una inquietud cada vez más difícil de ignorar: ¿estamos creando una herramienta o estamos perdiendo el control sobre ella?
A lo largo de la historia, el ser humano ya ha enfrentado dilemas similares. Un ejemplo claro es el desarrollo de la energía nuclear tras el Proyecto Manhattan, que culminó con los bombardeos de Hiroshima y Nagasaki. Lo que comenzó como un avance científico terminó convirtiéndose en una de las mayores tragedias provocadas por la tecnología. La ciencia no era el problema; el uso que se le dio, sí.
Hoy, la inteligencia artificial plantea un escenario potencialmente igual o más complejo. A diferencia de la energía nuclear, que requiere infraestructura física y control estatal, la IA tiene la capacidad de expandirse de manera descentralizada, rápida y, en muchos casos, difícil de regular. Desde sistemas de vigilancia masiva hasta armas autónomas capaces de tomar decisiones sin intervención humana, la línea entre herramienta y amenaza comienza a difuminarse.
El problema no es solo tecnológico, sino profundamente humano. La historia ha demostrado que cuando una herramienta poderosa aparece, tarde o temprano se utiliza con fines de control, dominación o conflicto.
Entonces, la verdadera pregunta no es si la inteligencia artificial representa un peligro, sino si la humanidad está preparada para manejar una tecnología que podría superar su propia capacidad de control.
¿Estamos frente a una herramienta que potenciará el progreso humano o ante el inicio de una nueva forma de poder que terminará escapando de nuestras manos?