"Un señor en China se toma una sopita de murciélago y en la otra punta del mundo a ti te despiden"....
IA en la Función de Inteligencia Competitiva: el año en que innovamos peligrosamente
LLevamos ya muchos meses -años- pisando charcos con la innovación de la inteligencia artificial generativa o genAI. En mi opinión estamos sufriendo el síndrome del martillo: nos han dado uno, y sólo vemos clavos. Pero algunos de esos clavos son, en verdad, tornillos.
Algunas ideas previas
Doctores tiene la Iglesia, pero sabe más el diablo por viejo que por diablo. Ya en los neolíticos ‘80 trataba de entrenar el reconocimiento del habla para dictados (con procesadores de 16 bits), me acerqué a los procesadores sistólicos, y en los ‘90 dirigí mi primer proyecto de IA aplicada en la industria para el diseño de compuestos químicos. El año pasado volví a reciclarme en nueva tecnología de IA, que ya era tiempo.
Parcheado el síndrome del impostor, vamos con el análisis.
En primer lugar, aclaremos que no toda la IA es generativa. Aparte de los grandes modelos de lenguaje (LLM), como ChatGPT, hay toda una serie de tecnologías y métodos alternativos para que una máquina aprenda y nos ayude en nuestras tareas. Ya sea clasificar clientes o detectar un cáncer.
Pero centrémonos en la IA generativa y los LLM, que son los que nos están encharcando el camino.
Los LLM son “loros estocásticos confiadamente equivocados”. Es decir:
- Loros, porque sólo repiten lo que han leído alguna vez.
- Estocásticos, porque su respuesta no es consistente en el tiempo. No responden lo mismo. En realidad, sólo calculan la probabilidad de que una palabra siga a otra. Probabilidad es indeterminación.
- Confiadamente equivocados, porque están programados para responder y argumentarte la respuesta, pero no para decirte la verdad.
Gracias al aumento de la capacidad de cálculo (algo tenemos que agradecerle a los gamers y a los chips de NVIDIA), los investigadores pudieron entrenar con más datos, y han emergido capacidades que ellos no tenían previstas. Aquí reside el éxito de los LLM. Es como si al juntar muchas neuronas emergiese la consciencia (para aquellos que no creáis en el alma humana). Estas capacidades emergentes, que tienen muchas ventajas en el tratamiento del lenguaje, tienen muchos inconvenientes en otros campos. Volvemos al síndrome del martillo.
Por ejemplo, un desarrollador de Anthropic descubrió recientemente cómo la genAI compara dos números: representa cada número como una hélice y torsiona una respecto a la otra para compararlas. ¿De verdad es la forma más eficiente y exacta de comparar dos números? Pues claro que no.

La IA generativa en la Función de Inteligencia Competitiva
Ya hemos dicho que los modelos de lenguaje están programados para responder, no para que la respuesta sea correcta. Si hay información que desconoce, tiende a inventársela. Es lo que llamamos “alucinaciones”. Aunque hay técnicas simples y complejas para minimizar el problema, no se puede eliminar por completo debido a los fundamentos de la tecnología.
Y esto es un problema cuando aplicamos un LLM al apoyo de decisiones empresariales, como en la función de inteligencia.
Recomiendo usar la inteligencia artificial generativa para, por ejemplo, desarrollar el informe del Estado Del Arte (SOTA) de un proyecto de innovación. Usar soluciones como Gemini o Perplexity puede ayudarnos bastante a enfrentarnos a la hoja en blanco. Claro que “saber qué queremos saber” es clave. Las preguntas dicen más que las respuestas. Y en función de ellas obtendremos los resultados.
Un ChatGPT también puede ayudarnos a desarrollar nuestra Directiva de Inteligencia: esa guía de la empresa que refleja qué necesita saber cada persona para hacer bien su trabajo. Una vez definidos los objetivos, podemos desplegar cada uno de ellos en hipótesis para vigilar el mercado.
Pero más allá de estos pasos previos, debemos atender al posible papel de la GenAI en cada una de las tareas de la inteligencia competitiva. A saber:
-
Descripción
-
Diagnosis
-
Predicción
-
Prescripción
Veamos el impacto en cada una de estas tareas.
La tarea descriptiva en la Inteligencia Competitiva
Los LLM son magníficos en la inteligencia descriptiva. La información se la das tú, y te la puede estructurar y resumir. Por ejemplo, NotebookLM es una solución práctica para esta tarea.
Poco más que añadir.
La IAgen en la tarea de diagnóstico de la inteligencia competitiva
En la diagnosis ya comenzamos a tener problemas. El LLM ha de conectar conceptos entre sí y sacar conclusiones, y aquí tenemos el problema de las alucinaciones. En una práctica que hice con alumnos, uno de los LLM más conocidos nos aseguró que Napoleón había descubierto América. Recordemos: son confiadamente equivocados.
Todos habremos escuchado que los LLM están programados con una especie de guardarraíles para evitar estas situaciones, y hay algunas medidas que podemos aplicar como usuarios. Como también pretenden tener previstos los sesgos de raza, de sexo..., o de seguridad. Pero en un encuentro de profesores y alumnos nos retamos a saltarnos el de seguridad, y a mí me costó un único prompt en uno de los LLM más preparados saltarme los límites, como demostración de que los guardarraíles no son garantía; en entornos críticos hay que asumir el fallo y diseñar controles.
Lo que sí podemos hacer es usar la GenAI para realizar un “análisis aumentado”: un humano o un equipo de personas se apoya en la IA para hacer su trabajo. Pero no para que le haga el trabajo.
Vamos a ver, que he visto empresas cotizadas en bolsa que le encargan la vigilancia del mercado a estudiantes que hacen su Trabajo de Final de Grado, y van rotando cada 3 ó 4 meses. Darle a un becario la responsabilidad de diagnosis en la función de inteligencia competitiva o tecnológica, esperando que la IA generativa supla sus conocimientos del sector y de la estrategia de la empresa, es peor que directamente conducir la empresa con los ojos y oídos tapados.
La predicción con IA generativa en la función de inteligencia competitiva
En la fase predictiva lo que queremos es adelantar qué ocurrirá en el corto o medio plazo, a partir de los datos disponibles. El inconveniente es que las predicciones se basan en... ¡el pasado! y la IA puede descubrir patrones ocultos, pero carece de la capacidad de inferencia humana (por ahora).
Un LLM interpola más o menos bien, pero es más difícil que extrapole superando al humano. De nuevo, la intuición y saber-hacer del experto es la que debe guiar la extrapolación, apoyándose en la IA generativa.
Además, aquí hemos visto en estos meses recientes que los servicios de LLM están poniendo una capa en la que la propia IA decide qué modelo aplica para contestar. Pero los costes se les van de las manos, gastando 15 USD por cada USD que cobra por consulta, y tienden a usar el "modelo más vago primero" según mi experiencia. De hecho, estuve haciendo un tratamiento de datos un fin de semana con este método de la IA, y como yo sabía por dónde debían ir los resultados, al no recibir lo que esperaba me puse a retorcer el brazo de la IA. Hasta que reconoció que usaba un modelo mínimo, y no sólo que se inventaba el resultado, sino que es que "estaba haciendo un procesado manual de los datos". ¡¿Manual?! Muy surrealista.
Has de ser experto en un campo para poder fiscalizar la respuesta de la IAgen. Decía una ingeniera hace unas semanas que cuando eres experto en un campo te das cuenta de que la IA “es una mierda” (sic). Y que el éxito de la IA le ha mostrado que no hay tanta gente experta en un campo determinado. ¿Es una impresión subjetiva? Hace poco se publicó un estudio de Scale AI que puso a prueba a los grandes LLM con trabajos reales de freelance en remoto: desde diseñar productos hasta escribir artículos científicos o programar videojuegos. Los resultados son un recordatorio ilustrativo: sólo el 2,1% de los trabajos eran aceptables por un cliente razonable. Ni siquiera un 1% de los trabajos eran aceptables por un profesional de la materia.
La prescripción de acciones con IA generativa en la función de inteligencia competitiva
En la fase prescriptiva, tras la diagnosis y la predicción de escenario, prescribo qué acciones debería acometer, en función de la estrategia de la compañía.
Aquí recuerdo una conversación con Director de Marketing en una empresa de fuera de la Unión, que me preguntaba si la IA de un sistema de inteligencia competitiva podía proponer el plan de marketing estratégico para la empresa. Le dije que tuviera cuidado con lo que deseaba, pues el día que lo hiciera, él se iría a la calle. Con una sonrisa. Él ya no está en la empresa, pero no creo que haya sido por esto, porque ninguna empresa en su sano juicio dejaría en manos de la IAgen el marketing estratégico.
¿Y si hacemos que la IA aprenda de nosotros?
Hace algo más de una semana me preguntaba una responsable de innovación, por qué no dejábamos que el sistema aprendiese de las preferencias de los compañeros en su labor de vigilancia.
La respuesta al aprendizaje automático en la vigilancia del mercado es que es peligroso, pues el mundo evoluciona y genera disrupciones. Al estrechar el foco, y responder sólo a lo ya sabido, se minimizarán o descartarán señales tempranas de esas disrupciones. Agrandaremos progresivamente los puntos ciegos. Como si fuésemos haciendo los retrovisores y ventanas del coche cada vez más pequeñas.
En todo caso, ese proceso adaptativo de aprendizaje no debería basarse en tecnología de LLM.
Y, por último, la olvidada contrainteligencia en la aplicación de la IA en la empresa
El siguiente paso a vigilar el mercado es plantearse cómo practicar la contrainteligencia. Cómo evitar que nos monitoricen. O al menos, practicar la privacidad. El uso de la IA nos está abriendo puertas que dan directamente a charcos. Bastante profundos por cierto...
Comencemos por lo básico. Los chats de los LLM se pueden compartir, pero cuidado con los enlaces públicos, pues la información acaba siendo indexada por Google. Y no queremos que nuestro proyecto aparezca como respuesta a una consulta de cualquiera en Google.
Ahora se nos ha abierto la caja de Pandora con los navegadores de IA (como Atlas de OpenAI, o Comet de Perplexity). Mientras que hasta ahora eras tú el que subías proactivamente datos a una aplicación (digo que lo hacías conscientemente, aunque a veces es una inconsciencia), con los nuevos navegadores, estos están continuamente viendo lo que tú ves (y lo que no ves, pero tienes en algún lugar de la aplicación abierta). Por ejemplo, si tienes el CRM abierto, el navegador ve y aprende quién es tu cliente, y cuánto te paga por qué producto. Y esa información tú ya no la controlas. Además, ya es público que no se recomienda su uso en entornos empresariales por el riesgo de inyección de prompts. En la empresa tenemos un deber de diligencia, debemos tener una política explícita y usar un sandbox o entorno de pruebas acotado.
Todavía más reciente, estos días estamos en la fiebre de Clawdbot, una solución de código abierto que instalas en tu ordenador, conectas a un LLM, y al que le pides que realice tareas. Instalar alegremente esta tecnología no sólo implica poner en peligro tus recursos, sino abrir puertas a un desastre de privacidad. Vayamos con cuidado y usemos el sandbox.
Epílogo
Hemos visto algunos de los mayores charcos en el camino a la productividad ampliada con la inteligencia artificial generativa. Sólo me queda responder a la pregunta recurrente: “¿En vuestra empresa usáis la IA? “
Respuesta: “Sí. Y también usamos energía eléctrica y agua potable.”
Es una commodity.
-----
"El año que vivimos peligrosamente" (1982) es una película dirigida por Peter Weir.