Alex Laskurain reflexiona sobre cómo la inteligencia artificial puede reforzar sesgos preexistentes y limitar la perspectiva en entornos profesionales. Una invitación a cuestionar nuestras certezas en un mundo cada vez más automatizado.
Uno de los mayores anhelos de la inteligencia artificial es su promesa de objetividad. Sin embargo, cuanto más sofisticadas se vuelven estas herramientas, más sutiles resultan también sus efectos sobre nuestra forma de pensar. Entre los más preocupantes está su capacidad —o quizás su tendencia intencionalmente programada— a reforzar nuestras convicciones previas. La inteligencia artificial no solo aprende de los datos que le damos; también aprende de nuestras preguntas, de nuestros patrones de búsqueda, de nuestras preferencias pasadas. Y es ahí donde el sesgo de confirmación, tan humano como inconsciente, encuentra en la IA un aliado peligroso.
No es casual que en el entorno digital actual, donde las redes sociales filtran lo que vemos en función de nuestros intereses, la inteligencia artificial potencie esa misma lógica. La consecuencia no es solo que perdemos exposición a ideas distintas, sino que nos reafirmamos, a veces con una peligrosa seguridad, en puntos de vista no necesariamente sólidos. Este fenómeno tiene un alcance que va mucho más allá de lo personal. En los entornos corporativos y mercantiles, esta dinámica puede derivar en decisiones estratégicas sesgadas, análisis de riesgos insuficientes o validaciones apresuradas de hipótesis internas.
Imaginemos, por ejemplo, a un equipo de dirección que utiliza herramientas de IA para evaluar el potencial de inversión en un determinado sector. Si los parámetros de búsqueda, entrenados con datos y perspectivas previas, están sesgados hacia ciertas narrativas optimistas, el sistema tenderá a presentar resultados que refuercen esa visión, en lugar de cuestionarla. No porque la tecnología esté defectuosa, sino porque ha sido alimentada con una lógica que da prioridad a lo conocido y deseado, no a lo contrastado y diverso.
Este fenómeno nos obliga a recuperar el valor de la duda. En un mundo donde la velocidad y la eficiencia tienden a imponerse, tomarse el tiempo para contrastar, para escuchar voces divergentes y para reformular las preguntas adquiere un nuevo valor estratégico. No se trata de desconfiar de la IA, sino de desconfiar de nuestra relación con ella. Necesitamos cultivar una actitud de vigilancia intelectual que nos aleje del automatismo cognitivo y nos devuelva la complejidad del análisis.
En nuestra práctica profesional lo vemos a diario: decisiones de inversión que se aceleran por exceso de confianza, análisis que pasan por objetivos pero están condicionados por sesgos no identificados, y oportunidades perdidas por no haber sabido mirar más allá de lo que ya creíamos. Por eso, el reto no es técnico, sino profundamente humano. Y como tal, requiere una respuesta ética y estratégica: incorporar deliberadamente la diversidad de pensamiento, estructurar escenarios alternativos, invitar la discrepancia y no convertir los datos en dogmas.
En tiempos de inteligencia artificial, mantener la inteligencia crítica es una forma de liderazgo. Y tal vez, también, una forma de valentía.