Dejar atrás las herramientas conocidas

INTELIGENCIA ARTIFICIAL

Fabricio De los Santos

3/25/20266 min read

Hace un año visité una librería dentro del Castillo de Óbidos y, la verdad, es muy linda. Pequeña, pero con algo especial. De esas que, apenas entras, ya te atrapan. A veces pasa lo contrario con otras librerías más famosas, incluso de esas en las que hasta hay que pagar para entrar, y al final te terminan decepcionando.

Pero volviendo al tema importante, en esa librería descubrí un libro llamado Versátil, de David Epstein. La combinación del título con la navaja suiza en la tapa me llamó enseguida la atención. Como suelo hacer, abrí una página al azar y empecé a leer. Caí en la historia de Tiger Woods, en cómo llegó a convertirse en el número uno del mundo. Me gustó tanto que decidí llevarme el libro para sumarlo a mi colección de ideas.

El libro está muy interesante, pero hubo un capítulo cuyo título me golpeó de inmediato. Y creo que no podría ser más actual para la época que vivimos: “Aprender a largar las herramientas familiares”.

Uauuuu... es fuerte de verdad.

Seguramente has escuchado alguna vez la frase “hay que morir con las botas puestas”. Suena heroica. Suena valiente. Pero, dependiendo del contexto, de la situación y de quienes se quedan esperando por ti, no siempre parece una idea tan inteligente.

Claro, tomémoslo con pinzas, porque es una frase que muchas veces puede inspirar. Pero llevándola al terreno de las empresas, me hace pensar en cómo muchas organizaciones se aferran a cosas que “hasta ahora les funcionaron”, aunque ya empiecen a mostrar señales de agotamiento.

Y ahí está el problema.

Porque una cosa es un artesano. O un artista. Ahí el valor de la herramienta puede ser otro. Puede estar en la historia, en el gesto, en la belleza, en el proceso. Pero en una empresa, una de las variables más importantes para cumplir objetivos sigue siendo la eficiencia. Y hoy está claro que la Inteligencia Artificial puede ayudarnos muchísimo en eso.

Pero volvamos al libro.

El capítulo presenta un caso de estudio de la Harvard Business School. Un equipo ficticio de carreras, Carter Racing, debe decidir si compite o no en una prueba clave. Va en quinta posición, la carrera será televisada a nivel nacional y, si logra mantener ese puesto, podría conseguir un patrocinio enorme para la siguiente temporada. Pero hay un problema: durante el campeonato ya tuvo varias averías de motor, y existe el riesgo de que vuelva a pasar.

Si no corren, pueden perder dinero y una oportunidad enorme. Si corren y el motor falla, también.

Entonces empieza el debate.

Uno de los mecánicos cree que el problema aparece cuando baja demasiado la temperatura. Otros cuestionan esa conclusión. Aparecen gráficos, probabilidades, argumentos financieros, intuiciones, experiencia, dudas. Y al final, como tantas veces pasa en la vida real, la discusión se convierte en una lucha entre lo que se puede medir y lo que se percibe, aunque todavía no se pueda demostrar del todo.

Lo interesante es que, al día siguiente, el profesor revela algo decisivo: los alumnos habían tomado posición sin pedir todos los datos que faltaban.

Y cuando aparecen esos datos completos, el panorama cambia.

A partir de ahí, el caso da un giro todavía más fuerte: en realidad, estaba inspirado en la tragedia del Challenger.

Lo que en el caso era un motor, en la historia real eran los O-rings, las juntas que fallaron en condiciones de frío extremo.

Pero aquí viene lo que más me impactó.

Durante años, mucha gente resumió el accidente del Challenger como un caso en el que faltaron números o en el que no se escuchó suficientemente a quienes tenían dudas. Y sí, algo de eso hubo. Pero el libro muestra algo más profundo.

La NASA tenía una cultura técnica fortísima. Una cultura de exigir datos, cuantificar, justificar, respaldar cada afirmación con evidencia. Y esa forma de trabajar les había funcionado brillantemente durante años. No era una mala herramienta. Era, de hecho, una de sus grandes fortalezas.

El problema fue que, en una situación nueva, ambigua y fuera de los parámetros habituales, esa herramienta familiar dejó de servirles como guía suficiente.

O peor: les dio una falsa sensación de control.

Porque no se trataba solo de tener datos. Se trataba de saber qué datos eran realmente relevantes. Y también de reconocer que había información importante que no encajaba fácilmente en el molde cuantitativo habitual.

Los ingenieros de Thiokol tenían observaciones, tenían fotos, tenían preocupación técnica real, tenían indicios de que estaban lejos de una situación segura. Pero no tenían un caso cuantitativo sólido para defenderlo dentro de una cultura que prácticamente exigía eso para poder frenar una decisión.

Y ahí aparece una de las lecciones más duras del capítulo.

No siempre el error es la falta de análisis. A veces el error es depender en exceso del tipo de análisis que siempre nos funcionó.

Eso me parece brutal.

Porque muchas veces creemos que estamos siendo rigurosos solo porque tenemos gráficos, porcentajes, dashboards, tablas o modelos. Pero no siempre estamos mirando lo correcto. No siempre estamos haciendo la pregunta adecuada. No siempre el dato que tenemos delante es el que realmente importa. Y muchas veces, por querer sentirnos seguros dentro de lo medible, terminamos ignorando señales importantes que todavía no caben en una planilla.

Eso me hizo pensar no solo en la NASA, sino también en las empresas de hoy.

Y sí, por supuesto, también en todo lo que está pasando con la Inteligencia Artificial.

Porque muchas organizaciones siguen aferradas a herramientas, procesos y formas de decidir que les funcionaron durante años. Y como les funcionaron, las defienden. Las justifican. Las protegen. Casi las abrazan.

Reportes. Planillas. Dashboards. Circuitos rígidos. Reuniones eternas. Formas de validar decisiones que antes daban seguridad.

Pero que algo te haya servido hasta hoy no significa que te vaya a servir mañana.

Ese es el punto incómodo.

A veces seguimos haciendo las cosas de la misma manera porque nos acostumbramos. Porque conocemos el terreno. Porque cambiar da miedo. Porque sentimos que ya invertimos demasiado tiempo en una forma de trabajar como para soltarla ahora. O peor aún, porque pensamos que ya es tarde para cambiar.

Y ahí aparece otra trampa.

Nos decimos que ya no vale la pena. Que el tren ya pasó. Que si no lo hicimos antes, ya no lo haremos ahora.

Pero muchas veces llevamos dos o tres años diciéndonos exactamente lo mismo.

Y si hoy miras hacia atrás, probablemente pienses: si hubiera tomado la decisión hace tres años, hoy estaría en otro lugar.

Entonces la pregunta es inevitable:

¿Vas a seguir igual y volver a hacerte la misma pregunta dentro de dos o tres años?

Pero el capítulo del libro todavía va más allá.

Después conecta esta idea con los bomberos forestales que, en medio del fuego, no consiguieron soltar sus herramientas aunque hacerlo les hubiera salvado la vida. Y la reflexión es todavía más dura: muchas veces no nos aferramos a una herramienta solo porque funciona, sino porque forma parte de nuestra identidad.

Nos define. Nos dio seguridad. Nos hizo sentir competentes. Nos trajo hasta aquí.

Y justamente por eso soltarla duele.

Por eso cuesta tanto.

Porque no siempre sientes que estás dejando una herramienta. A veces sientes que estás dejando atrás una parte de ti.

Pero si no eres artista, artesano o alguien cuya actividad dependa profundamente de la manualidad o del trato personal, y eres gestor, emprendedor o responsable de mantener un negocio vivo y competitivo, creo que vale la pena detenerse y hacerse algunas preguntas.

¿Qué herramientas estás usando hoy?

¿Cuáles te sirvieron hasta ahora?

¿Cuáles todavía parecen funcionar?

¿Pero qué pasa si levantas la cabeza y miras unos meses hacia adelante?

¿Y si observas lo que ya está haciendo tu competencia?

¿Y si el verdadero riesgo no está en cambiar, sino en no cambiar?

Tal vez ha llegado el momento de dejar atrás las herramientas conocidas. Y empezar, de verdad, a entrar en el mundo de la Inteligencia Artificial para tu empresa.

Nos vemos en la próxima.

Y como siempre, si estás explorando cómo aplicar inteligencia artificial en tu organización, ya sea con modelos locales, arquitecturas RAG, enfoques de IA ética o estrategias de cumplimiento como GDPR no dudes en escribirme. Me encantará conocer tu caso y conversar.

Excelente semana.

Fabricio De los Santos

AI Solutions & Integration Architect - Diseñando agentes de IA, automatización y sistemas inteligentes para empresas