Realidad, poder e IA: decisiones en el aula y la plaza pública


¿Quién soy cuando digo “yo”? Una historia sobre realidad, poder y decisiones

A veces presentarse es un acto de cartografía. Uno elige qué montañas señalar, qué ríos nombrar y qué desiertos dejar en blanco. Yo podría decir: Dr. Luis Enrique Sánchez Díaz, profesor-investigador en la BUAP, consultor de negocios, treinta años en educación superior y en administración pública, obsesionado con la intersección entre inteligencia artificial, big data y vida democrática. Sería cierto, pero incompleto. Porque la realidad —como descubren mis estudiantes en clase— no es solo lo que ocurre; es también lo que logramos explicar y lo que alguien intenta silenciar.

Aprendí pronto que la administración no es una contabilidad de procesos, sino una política de la atención: dónde miramos, qué medimos, a quién escuchamos y a quién no. En mis cursos de metodología repito una idea simple: los datos son brújula, pero también frontera. Sirven para orientarnos y, sin cuidado, terminan por encarcelar la imaginación. La IA lo amplifica todo: acelera la brújula y endurece la frontera. Puede ayudarnos a decidir mejor; también puede entrenarnos para obedecer más rápido.

Harari suele recordar que lo que llamamos “realidad” es una mezcla de cosas físicas (que no dependen de nosotros) y ficciones intersubjetivas (que inventamos para coordinarnos: dinero, empresas, constituciones). Con esa premisa, mi trabajo se divide en dos frentes. El primero, el laboratorio: enseñar a pensar con rigor, medir bien, formular hipótesis que se dejan refutar, diseñar estrategias donde los números no sustituyan el juicio. El segundo, la plaza pública: escribir, investigar, incomodar si hace falta, y defender el ecosistema donde la verdad todavía puede abrirse paso entre el ruido.

En ese cruce viví una lección que cambió mi agenda. Puebla aprobó un tipo penal para “ordenar” lo que ocurre en internet. Era la promesa de seguridad, esa ficción poderosa que nos gusta comprar cuando el miedo sube. Pero las leyes, como los algoritmos, tienen sesgos y efectos colaterales: pueden proteger, sí, y pueden silenciar. Al analizar el dispositivo legal, entendí que la batalla no era técnica: era semántica y política. ¿Qué cuenta como acoso? ¿Quién decide qué se calla en nombre de la paz? ¿Cómo se convierte el disenso en “peligro”? Escribí, debatí, toqué puertas. Descubrí que la defensa de la libertad de expresión no es una épica abstracta; es administración en su forma más elemental: reglas claras, incentivos correctos, transparencia radical y responsabilidad con nombre y apellido.

En el aula parto de una pregunta que parece filosófica y termina siendo práctica: ¿qué es la realidad? Respondo con cuatro capas:

  1. Lo que existe aunque nadie lo mire.
  2. Lo que aparece a nuestra experiencia.
  3. Lo que podemos nombrar con un lenguaje.
  4. Lo que se legitima en una lucha de poder.

La administración tradicional se quedó en la primera capa y parte de la segunda: inventarios, procesos, indicadores. La administración que nos toca practicar hoy —si queremos que una empresa, una universidad o un gobierno funcionen— debe habitar también la tercera y la cuarta: semánticas y poderes. Porque una métrica mal formulada crea incentivos perversos; y una narrativa gubernamental bien afinada puede volver “invisible” un problema sin resolverlo. Manejar una organización es manejar realidades en plural.

Por eso dedico buena parte de mis horas a la alfabetización algorítmica. No para convertir a nadie en programador, sino para entender cómo los sistemas que usamos todos los días —de la banca a la salud, de la seguridad al marketing— apuestan sobre nuestro comportamiento. Y cómo esas apuestas, repetidas millones de veces, van moldeando la realidad que mañana asumiremos como “natural”. El capitalismo de vigilancia lo explicó: si tu experiencia es materia prima de modelos de predicción, el riesgo no es que te espíen, sino que te re-escriban. Una universidad que ignora esto educa para un mundo que ya no existe; una empresa que lo subestima administra con mapas viejos.

Mi práctica como consultor se sostiene en una convicción: no hay estrategia sólida sin ética explícita. La IA puede optimizar rutas logísticas y también manipular emociones a escala. Puede detectar fraudes y también fabricar reputaciones artificiales. Cada proyecto serio comienza por responder para qué y con qué límites. La pregunta no es romántica; es operativa. La reputación se derrumba cuando los medios cambian y las audiencias aprenden a oler la coreografía. Y cambian rápido.

En la escritura juego a otro deporte: el de desarmar el discurso. El poder no se define solo por lo que ordena, sino por lo que declara obvio. Cuando un gobierno convierte el abuso en “protección”, o cuando una élite empresarial llama “eficiencia” a trasladar riesgos al último de la fila, conviene recuperar la antigua costumbre de hacer preguntas incómodas. No para destruir, sino para reparar el vínculo más frágil de cualquier comunidad: la confianza.

Si tuviera que resumirme en un párrafo, elegiría este: soy un profesor que enseña a ver; un investigador que compara relatos con evidencia; un consultor que traduce incertidumbre en decisiones; y un ciudadano que militó —y seguirá militando— por un espacio público donde la verdad no sea un acto heroico. Me muevo entre marcos teóricos materialistas y herramientas positivistas, sí; pero también entre la ironía de quien sabe que el lenguaje crea mundos. En clase, en una columna o en una sala de juntas, la pregunta de fondo es la misma: ¿qué realidad estamos construyendo con nuestras métricas, nuestros contratos y nuestras leyes?

A mis estudiantes les propongo un ejercicio: describan su mundo sin adjetivos, midan sin enamorarse de la cifra y pongan nombre a lo que no aparece en los reportes. Luego, decidan. En esa secuencia —mirar, nombrar, medir, deliberar— hay una ética mínima. Dirige empresas, sí. Pero también cuida personas. Porque, al final, una organización es una narrativa que paga nómina.

La vida académica me dio herramientas; la consultoría, cicatrices. Ambas enseñan lo mismo: no hay plan maestro que resista a la realidad si esta no fue parte del diseño desde el inicio. La IA no nos salvará de decidir; solo vuelve más cara la falta de criterio. Y el criterio no se descarga: se cultiva.

Harari diría que las sociedades sanas son las que pueden cambiar de historia sin romperse. Me gustaría pensar que mi trabajo —entre pizarrones, datasets y columnas— contribuye a eso: a que la próxima historia que contemos de nosotros mismos tenga menos miedo, más método y mejor memoria. Si lo logramos, quizá cuando alguien pregunte “¿quién eres?”, podamos responder algo más honesto que un nombre: soy las decisiones que tomé cuando nadie miraba y las preguntas que me negué a dejar de hacer.

Un comentario en “Realidad, poder e IA: decisiones en el aula y la plaza pública

  1. Es fascinante como el docente Luis Enrique desarrolla un tema de una manera tan compleja pero a la vez tan comprensible y procesable para todos. Sin dudas alguna las preguntas que hace siempre me hacen cuestionarme y reflexionar, pero nunca había profundizado más en el tema del “yo”.
    La definición que dio al final me dejó con la mente abierta a miles de posibilidades de respuestas a esa pregunta, para un futuro.

    Me gusta

Deja un comentario