Actualmente se habla mucho sobre sistemas con IA, capaces de generar contenido muy rápido y de gran calidad, no obstante, hay que tener en cuenta, que los sistemas de IA no son inteligentes como tal, basan sus respuestas en algoritmos, muy sofisticados, para reproducir una respuesta sensata a lo que le hayamos pedido.
Se "entrenan" con miles y miles de millones de datos de internet, esto incluye libros, páginas web, incluso vídeos e imágenes, luego se depuran esos datos y se aplican algoritmos para generar una respuesta a un problema dado, puede parecer, que la IA es inteligente y sabe lo que está respondiendo, pero no tiene conciencia de si misma, solo sabe responder como le han enseñado o mejor dicho programado para responder.
El problema viene cuando de verdad tengan inteligencia, autoconsciencia, y la capacidad de tomar decisiones sin intervención humana, lo que llamariamos una AGI, un tipo de IA que se intenta desarrollar y que cada vez está mas cerca.
Pensad por un momento en que todo aquello que programamos y desarrollamos lo hacemos partiendo de la base de intentar hacer una réplica de cómo lo haríamos nosotros, los humanos, por lo que, puede cometer errores. ¿Qué pasaría si no aplicamos la suficiente seguridad y sea la máquina quien decida, que es el ser humano quien debe de extinguirse? si tiene vía libre por la red, los conocimientos de un hacker profesional, y la convicción de querer extinguirnos ¿cuánto tiempo duraríamos? ¿bastaría con desconectarla o de forma lógica se propagaría a otros equipos donde pueda reactivarse?
Aunque parezca un tema tabú o incluso muy controvertido, es una posibilidad que hay que tener en cuenta.