La confianza es un componente esencial de nuestra vida diaria. Desde la certeza de que el conductor del tren nos llevará a nuestro destino seguro, hasta la esperanza de que el pescado que compramos sea fresco, la confianza sostiene nuestras interacciones cotidianas. Vivir sin ella sería insostenible.
Varios premios Nobel en economía, como Joseph Stiglitz y Angus Deaton, han subrayado la importancia de confiar en las instituciones económicas y los gobiernos. Esta confianza es crucial para el buen funcionamiento de los mercados y para evitar el aumento de la desigualdad. Sin embargo, esta misma confianza también nos hace vulnerables, particularmente en lo que respecta a la tecnología.
La irrupción de la inteligencia artificial (IA) plantea un nuevo desafío: ¿confianza o preocupación? Según un nuevo informe, aunque el 85 % de las personas reconoce sus beneficios, un 61 % expresa desconfianza. Estos sentimientos encontrados surgen de preocupaciones éticas, legales, y sociales. Este artículo explora la relación de confianza con la IA en nuestra era digital y las implicaciones de esta dualidad para el futuro.
¿Qué voy a leer en este artículo?
La relación de confianza con la IA
Para entender mejor esta relación entre confianza e IA, las investigadoras Ella Glikson, de la Universidad de Bar-Ilan, y Anita Woolley, de la Universidad Carnegie Mellon, revisaron alrededor de 150 artículos publicados en los últimos 20 años en diversos campos, como ciencias de la computación, robótica y gestión de empresas, que les permitieron sacar algunas conclusiones respecto a cómo se relacionan las personas en entornos organizacionales con esta tecnología.
A diferencia de la automatización tradicional, que sigue reglas preprogramadas sin capacidad de aprendizaje, la inteligencia artificial es un proceso automatizado que aprende y se ajusta en función de la experiencia y el feedback recibido, lo que la hace dinámica y “viva”. La relación de confianza con la IA es crucial para determinar su uso, la falta de uso (rechazo), el uso indebido (dependencia) o incluso el abuso (uso perjudicial).
No obstante, surge una cuestión interesante a la que no sabemos si algún día la sociedad dará respuesta: ¿podemos confiar en sistemas que no entendemos completamente, a veces ni tan solo comprendidos completamente por los propios programadores?
La relación entre confianza en IA según este estudio y algunos riesgos
Para entender la relación entre confianza e IA, las autoras de la revisión distinguieron tres tipos de inteligencia artificial:
Robots físicos con IA:
Es la inteligencia artificial que está integrada en máquinas físicas, como los robots de servicio en hostelería, tiendas o recepciones de empresas, así como en robots industriales utilizados para ensamblaje, o vehículos semiautónomos o drones inteligentes.
Según la revisión realizada por las autoras, la confianza en los robots con IA sigue un patrón similar al de las interacciones humanas: comienza siendo baja, pero aumenta con el tiempo y la experiencia. Por ejemplo, los usuarios de coches semiautónomos tienden a confiar más en estos vehículos que quienes no los utilizan.
No obstante, este aumento de confianza viene acompañado de preocupaciones significativas que surgen a nivel ético, jurídico, y social. Por ejemplo, los robots usados en el cuidado en las personas mayores pueden deshumanizar el cuidado.
Además, surgen cuestiones sobre responsabilidad legal: ¿quién es responsable si un robot con inteligencia artificial comete un error? Finalmente, la irrupción de estos tipos de robots puede agravar la desigualdad con el desplazamiento de muchas ocupaciones (por ejemplo, en el sector del transporte). Todo esto son cuestiones que poco a poco, instituciones, empresas y sociedad tienen que ir afrontando y definiendo.
IA Virtual:
Es la IA que está presente en asistentes virtuales, e interactúan con los usuarios a través de interfaces digitales. Algunos ejemplos son los asistentes de voz como Alexa o Siri, chatbots como ChatGPT o Bing AI, y sistemas de IA utilizados en la atención médica. En este caso, la confianza tiende a ser alta al principio, aunque puede disminuir con el tiempo.
Sin embargo, hay factores que pueden aumentar la confianza como la tangibilidad (incluir un avatar o imagen), la transparencia (entender cómo se toman las decisiones) y la fiabilidad (funcionar correctamente). Dicho esto, el uso de estos asistentes también genera disyunitivas a nivel ético, jurídico y social.
Entre ellas podríamos destacar una dependencia excesiva (por ejemplo, en los estudios o en el campo médico, que podrían deshumanizar las interacciones profesor-alumno o médico-paciente), una falta de responsabilidad jurídica en el caso de que un chatbot proporcione información incorrecta (por ejemplo, a un equipo médico que tome decisiones basado en sus datos), o la desigualdad digital, generada por las diferencias que pueden surgir entre los que disponen de esta tecnología y los que no tienen acceso.
IA incrustada:
Es la inteligencia artificial que está incorporada en dispositivos digitales y a menudo no se reconoce por los usuarios como IA. Ejemplos de ellos son los algoritmos que sugieren nuevas recomendaciones en plataformas de música o cine, la publicidad personalizada en redes sociales o las predicciones de tráfico en apps de navegación. Convivimos con ella sin ser plenamente conscientes de su presencia, en contraste con la inteligencia artificial virtual o física.
En este caso, los niveles de confianza tienden a ser altos inicialmente, al igual que ocurre con la IA virtual, y parece que esta confianza puede disminuir con el tiempo, aunque existe poca información y estudios al respecto para entender este fenómeno en detalle.
Este tipo genera también importantes preocupaciones como la desinformación o manipulación (puede facilitar o no cierto contenido a cierto público), falta de privacidad, o desigualdad en el acceso y uso (aunque sea invisible).
Transparencia y control como solución
Tal y como indicaba el estudio de KPMG, el 85 % de los participantes son conscientes del potencial de mejorar aspectos de nuestras vidas, aunque la mayoría desconfiemos de esta tecnología.
Para mejorar la relación de confianza con la IA, sería necesario que se facilitara de manera transparente como los distintos tipos de inteligencia artificial (físicos, virtuales e incrustados) toman decisiones, hecho que permitiese a los usuarios gozar de más control y poder de decisión en el uso. Esta transparencia podría venir de la mano de un marco regulatorio que explicite la necesidad de transparencia para un uno más seguro y autónomo.
Como en todas las irrupciones tecnológicas, la confianza nunca ha sido total en un inicio. En el caso de la IA debe ser igual, y más aún, sabiendo la complejidad y la falta de conocimiento sobre cómo funcionan tales sistemas. Es importante quizás no dar la espalda a una tecnología que ha venido para quedarse y que seguramente puede mejorar millones de vidas, pero a la vez es necesario mantener una mirada crítica y una actitud prudente. En definitiva, optar por una confianza crítica.