Borja Garcia Händler
MBA, Certificated Quantitative Finance
Desde la aparición de la inteligencia artificial (IA), se ha planteado una cuestión fundamental: ¿Puede la IA convertirse en una herramienta clave para resolver los problemas complejos que enfrentan los seres humanos, sin incrementar dilemas éticos y sociales?
A lo largo de la historia reciente, la IA ha evolucionado para ocupar un lugar relevante en diferentes ámbitos, desde el desarrollo de modelos predictivos hasta la toma de decisiones en contextos cada vez más críticos, pasando por la reciente generación “creativa” de contenido. Sin embargo, esta misma capacidad ha generado preocupaciones éticas y filosóficas sobre el papel que debería desempeñar la IA en la organización de la vida humana.
Un aspecto interesante de consideración es la tendencia humana de antropomorfizar estas tecnologías, un proceso que se describe como parte de la “domesticación de nuestra propia especie”. Este intento de proyectar cualidades humanas en las máquinas refleja tanto las esperanzas como los temores de una sociedad que busca soluciones automatizadas pero a la vez teme perder el control sobre los mismos procesos. La antropomorfización también recuerda al «Efecto Eliza», un fenómeno que señala cómo la interacción superficial con sistemas aparentemente inteligentes puede engañarnos haciéndonos creer que son más competentes y conscientes de lo que realmente son.
Por otro lado, la discusión en torno a los riesgos existenciales de la IA también está en pleno auge. Como lo señalan autores críticos del desarrollo tecnológico, el problema no es solo la capacidad de estos sistemas de cometer errores que podrían resultar catastróficos, sino también el uso potencialmente peligroso por parte de actores que buscan manipular y controlar a la sociedad. La IA ya está involucrada en mecanismos de vigilancia y control social, planteando la preocupación de que, en lugar de avanzar hacia una mayor libertad colectiva, estemos encaminándonos a nuevas formas de opresión y desigualdad.
En este contexto, se vuelve fundamental discutir no solo cómo utilizar la IA para resolver problemas, sino también qué tipo de problemas debería estar resolviendo. La ética aplicada a la IA, como parte de la “invención del bien y del mal”, consiste en definir cómo estas tecnologías pueden contribuir al bienestar común sin comprometer los derechos y la autonomía de las personas.
Finalizando, es también interesante la comparación entre derechos y obligaciones respecto a la IA y a los animales domésticos sugiere que ambos deben ser considerados desde una perspectiva de responsabilidad. Si bien los animales están sujetos a un cuidado que implica garantías para su bienestar, las IA no gozan de estos derechos, pero sí presentan la necesidad de estar reguladas para prevenir abusos y efectos adversos sobre la comunidad.
En definitiva, es necesario que las nuevas generaciones comprendan no sólo cómo funciona la IA, sino también cómo evaluar críticamente sus usos y efectos. Esto permitirá avanzar hacia una sociedad que integre esta tecnología de forma responsable y equitativa, garantizando que su papel sea el de un colaborador en la resolución de problemas y no el de un factor más que contribuya a su generación.
El seminario se celebró en línea el 10/12/2024
Puedes escuchar la grabación en audio (53 MB) en este enlace. Si deseas acceder a una grabación en vídeo (2,34 GB), puedes obtenerlo en este enlace.
Para citar esta entrada
García Händler, Borja en En Niaiá, consultado el 10/12/2024 https://niaia.es/el-mundo-de-la-inteligencia-artificial-y-su-papel-posible-en-la-resolucion-de-problemas/
Creemos en el libre flujo de información. Republique nuestros artículos libremente, en impreso o digital, bajo licencia Creative Commons, citando la fuente
La Web de NIAIÁ y sus publicaciones (salvo aquellas en las que se especifique de otra manera) están bajo una Licencia Creative Commons Atribución-NoComercial-SinDerivadas 4.0 Internacional