En una reciente entrevista con CBS «60 Minutes», el famoso científico de la computación Geoffrey Hinton, apodado el «Padrino de la IA», advirtió que la inteligencia artificial podría escapar del control humano reescribiendo su propio código para automejorarse. Según Hinton, los avances acelerados en la tecnología de la IA podrían permitirles superar a los humanos en tan solo cinco años.
Advierten sobre inteligencia artificial
Hinton, ganador del Premio Turing 2018 por su innovadora labor en la IA y el aprendizaje profundo, renunció a su cargo de vicepresidente en Google en mayo para hablar libremente sobre los riesgos que plantea la IA. Aunque Hinton reconoce el beneficio significativo de la IA en industrias como la atención médica, también señaló el aumento de la desinformación favorecida por la IA, las imágenes y videos falsos en línea.
El científico instó a la necesidad de más investigación para comprender la IA, la implementación de regulaciones gubernamentales y la prohibición mundial de los robots militares potenciados por IA.
Preocupación por la pérdida de control humano
Hinton y otros expertos en IA admiten que aún no comprenden completamente cómo funciona y evoluciona esta tecnología. Según Hinton, los científicos desarrollan algoritmos para que los sistemas de IA extraigan información de conjuntos de datos. Estos algoritmos de aprendizaje interactúan con los datos y producen redes neuronales complejas, pero la forma exacta en cómo estos sistemas realizan sus tareas sigue siendo un enigma.
Esta falta de comprensión plantea preocupaciones sobre la pérdida de control humano sobre la IA. Si los sistemas de IA pueden aprender por sí mismos y mejorar su propia capacidad, es posible que un día se vuelvan demasiado complejos para que los humanos los entiendan o controlen.
Otras advertencias sobre los riesgos de la IA
Además de la pérdida de control humano, otros expertos en IA han advertido sobre otros riesgos potenciales de la tecnología, como:
El desempleo: a medida que la IA se vuelve más sofisticada, podría automatizar muchos trabajos que actualmente realizan los humanos. Esto podría provocar un aumento del desempleo y la desigualdad.
La desinformación: la IA se puede utilizar para crear noticias falsas y otros tipos de desinformación. Esto podría socavar la confianza en las instituciones democráticas y conducir a la inestabilidad social.
La violencia: la IA se puede utilizar para desarrollar armas autónomas que podrían usarse para matar sin intervención humana. Esto podría aumentar el riesgo de guerra y violencia.
Necesidad de regulación
En respuesta a estas preocupaciones, algunos expertos han llamado a la regulación de la IA. Esto podría incluir la creación de leyes que prohíban el uso de la IA para ciertas aplicaciones, como el desarrollo de armas autónomas.
Otros expertos creen que la mejor manera de abordar los riesgos de la IA es a través de la educación y la transparencia. Los ciudadanos deben estar informados sobre los riesgos de la IA para que puedan tomar decisiones informadas sobre su uso.
El futuro de la IA es incierto. Sin embargo, es importante tener en cuenta los riesgos potenciales de esta tecnología y tomar medidas para mitigarlos.
Por: Patricio Álvarez