Internet solía ser un recorrido. Uno escribía una pregunta, revisaba enlaces y decidía en quién confiar. Ahora apareció una nueva capa: la AEO, o Optimización de Motores de Respuesta. En lugar de mostrar fuentes, los sistemas de inteligencia artificial generan la respuesta por su cuenta. Y esa respuesta la arma quien logra manipular el sistema. Cada vez más, llega sin fricción, sin contexto y sin voces que puedan contradecirla.
A simple vista, la AEO suena a jerga de marketing. Pero en la práctica cambia los criterios sobre qué entendemos por verdad. Si el "motor de respuestas" reemplaza a la web abierta, los intereses que hay detrás de esas respuestas no solo definen qué leemos, también marcan qué realidad se vuelve visible.
Y acá viene el punto donde habría que frenar: hay estudios que muestran que cerca del 70 % de las personas acepta la información tal como la recibe, sin cuestionarla ni verificarla. Siete de cada diez vamos a creer lo que la máquina nos diga que es cierto, sin dudas, sin obstáculos, sin consultar otras fuentes.
Si a eso le sumamos el capitalismo, el riesgo se vuelve todavía más grave. La realidad se transforma en un producto: se puede comprar, optimizar y vender al mejor postor. Quien tenga el dinero para moldear la respuesta va a definir la verdad. Y ese 70 % de la población la va a aceptar, tanto en sentido literal como simbólico. Ya lo vemos en política. ¿Y cómo sigue eso? Cuando la realidad entra en subasta, el resultado no es conocimiento. Es manipulación a escala industrial.
Ya vivimos las consecuencias de un mundo donde la realidad puede negarse. A principios de este mes, circuló un video en el que se veían objetos arrojados desde una ventana del piso superior de la Casa Blanca. El presidente Trump lo desestimó en público y dijo que era "inteligencia artificial". Sin embargo, horas antes, su propio equipo de prensa, al parecer, había verificado la autenticidad del video. El especialista en análisis forense digital Hany Farid también confirmó que no había signos de edición: ni en las sombras, ni en el movimiento, ni siquiera en el flamear de las banderas. Todo coincidía. Aun así, la negación se mantuvo. Un hecho verificado fue descartado como si fuera falso.
Ese es el peligro que la AEO amplifica. Cuando lo que define una respuesta no es la verificación, sino la optimización, cualquier molestia puede desaparecer. Y cualquier verdad también.
El auge de los AEO
La mayoría de los lectores están familiarizados con el SEO ( Optimización para Motores de Búsqueda), la práctica de adaptar el contenido para que Google lo posicione mejor. Pero a medida que las búsquedas se desplazan de los enlaces a las respuestas, ha surgido un nuevo término: AEO (Optimización para Motores de Búsqueda).
En lugar de dirigirte a sitios web, sistemas de IA como ChatGPT, Perplexity e incluso las nuevas IA Overviews de Google sintetizan una única respuesta. Y esa respuesta es ahora el campo de batalla: empresas e influencers ya están optimizando para moldear lo que la máquina te responde .
A primera vista, la AEO parece jerga de marketing. En la práctica, modifica los criterios de lo que constituye la verdad misma. Si el "motor de respuestas" reemplaza a la web abierta, las entradas e incentivos detrás de esas respuestas determinan no solo lo que leemos, sino también qué realidad se hace visible .
Por eso, AEO no es solo un acrónimo más. Es el nuevo terreno donde se cruzan la verdad, la rendición de cuentas y el poder.
El auge de la AEO
La mayoría de los lectores ya conoce el SEO, la práctica de ajustar contenidos para que Google los posicione mejor. Pero a medida que las búsquedas dejan de apuntar a enlaces y empiezan a centrarse en respuestas directas, apareció un nuevo término: AEO, o Optimización para Motores de Respuesta.
En lugar de llevarte a distintos sitios web, sistemas de inteligencia artificial como ChatGPT, Perplexity o incluso los nuevos resúmenes con IA de Google sintetizan una única respuesta. Y esa respuesta se volvió el nuevo campo de batalla. Empresas e influencers ya están trabajando para moldear lo que la máquina te dice.
A simple vista, AEO suena a jerga de marketing. Pero en la práctica, cambia los criterios sobre qué entendemos por verdad. Si el "motor de respuestas" reemplaza a la web abierta, los intereses y mecanismos detrás de esas respuestas no solo definen qué leemos, también deciden qué realidad se vuelve visible.
Por eso, AEO no es solo una sigla más. Es el nuevo terreno donde se cruzan la verdad, la responsabilidad y el poder.
AEO y la pregunta de un niño
Pasé décadas construyendo mundos sintéticos y vida artificial. Sin embargo, la pregunta más profunda sobre la realidad no vino de un laboratorio ni de un congreso. Me la hizo mi hijo.
Tenía cuatro años cuando nos habíamos mudado a una nueva comunidad, después de que el huracán Sandy arrasara la anterior. Ese 4 de julio, el primero en nuestra nueva casa, los fuegos artificiales iluminaban el cielo. Estábamos acostados sobre una manta, en un campo, bajo la noche. Entonces él susurró: «Papá, ¿eso es real?».
En ese momento lo viví como algo hermoso. Una señal de que la tecnología había avanzado tanto que el contenido sintético ya nos obligaba a hacernos ese tipo de preguntas. Me acordé de mi infancia, con juegos de Atari de 8 bits, MUDs en terminales monocromáticas y disquetes. Después de toda una carrera dedicada a crear comunidades online, mundos digitales, realidad virtual, aumentada y vida artificial, sentí que mi hijo, con su pregunta, le daba sentido a ese camino.
Con el tiempo entendí que no fue una validación. Fue una advertencia. Una señal temprana de la crisis de realidad que se nos venía encima.
Plataformas, editores y AEO
Parte de la crisis actual sobre lo que consideramos real también tiene una dimensión legal. El artículo 230 de la Ley de Decencia en las Comunicaciones impide, en términos generales, que se trate a los servicios online como "editores o emisores" del contenido que publican terceros. Esa idea tenía sentido en 1996, cuando las plataformas parecían canales neutrales. Pero en 2025, los feeds están lejos de serlo: seleccionan, ordenan y monetizan lo que vemos.
Ahora se suma una capa más: la AEO. En lugar de ofrecer una lista de enlaces, las plataformas y los modelos de inteligencia artificial empiezan a generar la respuesta por su cuenta. Eso los aleja todavía más de cualquier pretensión de neutralidad y los acerca a la autoría activa. Aun así, siguen protegidos por la amplia inmunidad del artículo 230, que los exime de responsabilidad por el contenido generado por usuarios. Esa protección no alcanza al contenido que el servicio desarrolla directamente, pero si los resultados generados por IA entran en esa categoría es algo que la justicia todavía no definió.
Esto no es un reclamo para eliminar el artículo 230. Es un llamado a reconocer que la responsabilidad no avanzó al mismo ritmo que el poder de moldear la realidad. Ese poder incluye tanto las recomendaciones algorítmicas como las respuestas generadas por AEO, que cada vez más definirán lo que muchas personas entienden como "verdad".
AEO e inmunidad en la era de la IA
El debate no es abstracto. Durante la cumbre Axios AI + DC, el senador Ted Cruz sostuvo que los tribunales probablemente interpretarán el artículo 230 como una forma de extender la inmunidad también a los sistemas de inteligencia artificial. Así, los resultados generados por IA quedarían cubiertos bajo la misma lógica que el contenido publicado por usuarios. Cruz incluso impulsó la idea de un "sandbox regulatorio" federal, con reglas más laxas, para que las empresas puedan experimentar sin demasiadas restricciones.
Esa retórica se presenta como una defensa de la libertad de expresión. Pero el riesgo es concreto: se empieza por ampliar las protecciones y se deja para después la rendición de cuentas. Y con el avance de la AEO, lo que está en juego se vuelve aún más delicado. Si se extiende la inmunidad, podríamos estar dándole cobertura legal a máquinas entrenadas para decidir solas qué es verdad.
Esa es la contradicción en el centro del debate sobre el artículo 230 en tiempos de inteligencia artificial. Los legisladores quieren conservar el espíritu libre de Internet, pero podrían terminar blindando algo mucho más dañino: la fabricación a escala industrial de ficciones que suenan convincentes.
Censura, alucinación, neutralidad y AEO
Nuestro vocabulario se vino abajo.
- Censura solía ser la supresión por parte del Estado. Hoy se usa para todo: desde la moderación de contenido hasta cuando un modelo de IA rechaza una solicitud.
- Neutralidad es una palabra que reclaman sistemas cuyos algoritmos ya eligen activamente nuestras fuentes. La AEO vuelve esa idea aún menos creíble: la respuesta "neutral" no es espontánea, está diseñada.
- Alucinación es como se nombra la capacidad de los grandes modelos de lenguaje para producir ficción con fluidez. Pero lo hacen a través de los mismos canales que el periodismo, con la misma apariencia de verosimilitud.
- Y verdad se vuelve apenas una percepción: si algo parece lo bastante real, o si lo niega suficiente gente, puede ocupar el mismo lugar que un hecho.
Esta dinámica refuerza lo que los profesores de Derecho Robert Chesney y Danielle Citron llaman el dividendo del mentiroso: cuanto más se multiplican los contenidos sintéticos, más fácil les resulta a los actores malintencionados desestimar pruebas reales como si fueran falsas y evitar cualquier tipo de responsabilidad. Y no se trata de un riesgo hipotético. Los deepfakes ya están detrás de ataques de ingeniería social a gran escala.
La AEO como censura por diseño
Hay que decirlo sin rodeos: la AEO está diseñada para censurar. No es más complejo que eso. Y censurar, en el fondo, es una forma de proteger el secreto.
Cuando un modelo opera sobre datos sintéticos protegidos como propiedad intelectual, se suman capas de opacidad. El conjunto de entrenamiento se oculta, las ponderaciones se sellan y el razonamiento queda encerrado en una caja negra. Nadie puede ver cómo se llegó a una conclusión ni qué fue lo que se filtró, se suprimió o se dejó afuera sin aviso.
Esto no tiene nada que ver con el discurso abierto de una editorial que rinde cuentas frente al escrutinio público. Es otra cosa: es ocultar el sentido. Y cuando aceptamos esa lógica sin cuestionarla, terminamos por naturalizar una realidad donde la verdad no se discute a la luz del día, sino que se ajusta en la sombra.
Cuando el sistema de alarma AEO miente
La detección ya no es un freno. Es una nueva superficie vulnerable. Un estudio reciente —"Donde se esconde el diablo: ya no se puede confiar en los detectores de deepfakes"— demuestra que es posible manipular los conjuntos de entrenamiento de terceros en estos detectores. Así, se logra que el sistema reconozca una puerta trasera oculta. Basta con activar un disparador invisible para que el detector etiquete de forma equivocada un contenido falso como verdadero, o al revés.
Los investigadores lograron incluir activadores invisibles, adaptativos, controlados por código o por supresión semántica, tanto en sistemas de etiquetas limpias como sucias. En otras palabras: se puede poner una trampa en la alarma de humo para que ronronee mientras la casa se prende fuego.
Así se completa el círculo de opacidad. Primero, se privatizan las entradas (datos sintéticos bajo propiedad intelectual). Después, el modelo (con políticas y ponderaciones cerradas). Y ahora, según este trabajo, también se puede ocultar el estado de fallo. El detector deja de cumplir su función cuando se le ordena, y falla de manera predecible. Incluso la verificación puede desactivarse a pedido. Ya hay organizaciones recibiendo advertencias para prepararse frente a esta posibilidad.
La necesidad de fricción en tiempos de automatización
A principios de este mes, di una charla en Babson College, invitado por el profesor Davit Khachatryan, quien dirige el Laboratorio de Empoderamiento de IA y Aprendizaje Automático en The Generator, el espacio de colaboración interdisciplinaria sobre inteligencia artificial que impulsa la universidad. El evento, parte del ciclo Generator Lab de Babson, giró en torno a una pregunta tan sencilla como urgente: ¿cómo preservamos el significado en un mundo diseñado para predecir y automatizar?
Durante la charla, planteé que la fricción, la imperfección e incluso el llamado tiempo "desperdiciado" no son errores del sistema humano, sino la base misma del sentido.
Como dijo el profesor Davit Khachatryan:
"La serendipia, la experimentación lúdica y las omisiones fructíferas no son malas hierbas que se puedan arrancar de raíz. Son brotes incipientes que necesitan ser preservados, regados y llevados a buen término. Si los eliminás, tendrás un jardín de vapor".
La fricción no frena el progreso, lo prueba. El desplazamiento infinito, la reproducción automática y las respuestas predictivas suavizan los desvíos y los desacuerdos que hacen que la verdad pueda verificarse. Los mitos, que usé como ejemplo en la conferencia de Babson, atravesaron generaciones no por su eficiencia, sino porque fueron repetidos, discutidos y reinterpretados. La fricción les dio peso.
Cinco cosas que podés hacer frente a la OEA
Si sos líder, tomás decisiones de política pública o simplemente intentás moverte en una realidad que parece desmoronarse, hay algunas acciones posibles:
- Preguntá por la OEA. No alcanza con saber cómo se entrenan los sistemas de inteligencia artificial; también hay que entender cómo se optimizan sus respuestas y qué incentivos los empujan.
- Reintroducí la fricción. Promové procesos que incluyan debate, discusión e incluso momentos improductivos. El sentido aparece cuando hay resistencia.
- Exigí procedencia. Impulsá marcas de agua, registros de auditoría y mecanismos de explicación, no como estrategias de marketing, sino como parte de una infraestructura real.
- Cuestioná la supuesta neutralidad. Si una plataforma o modelo se presenta como neutral, es clave revisar las suposiciones que arrastran sus algoritmos.
- Invertí en detección, pero no te fíes solo de eso. Los detectores pueden manipularse. Usalos como complemento del criterio humano y de políticas institucionales claras.
La realidad ya no se impone por sí sola. Hay que gestionarla.
¿Quién se hace cargo cuando los OEA moldean la realidad?
El colapso de la realidad no es solo una cuestión tecnológica. Es, sobre todo, un problema de responsabilidad. Si las plataformas funcionan como editores, deberían asumir compromisos similares a los de un medio: decidir qué se publica, cómo se amplifica la información y con qué criterio se organiza. Aunque la Sección 230 siga protegiéndolas de ser tratadas como "editoras o emisoras" del contenido que suben los usuarios, el escenario cambia si las empresas de inteligencia artificial inundan todo con certeza sintética, especialmente a través de los OEA. En ese caso, deben invertir en sistemas de procedencia, marcas de agua y análisis forense a través de equipos independientes. No como gesto para la prensa, sino como infraestructura real de rendición de cuentas.
Porque cuando mi hijo preguntó: "Papá, ¿eso es real?", no estaba hablando de fuegos artificiales. Quería saber si el mundo que le va a tocar todavía tiene un suelo firme, un lugar compartido donde la verdad pueda sostenerse.
El riesgo no es solo que la inteligencia artificial pueda falsear la realidad. El problema es que dejemos de intentar verificarla.
Entonces, la pregunta sigue abierta: ¿quién se hace responsable cuando la realidad se quiebra, sobre todo si los OEA ya están decidiendo cómo se ve esa realidad? Si la respuesta es "nadie", la optimización reemplaza a la verdad, y la realidad se convierte en un decorado que se puede cambiar según convenga. Ese es el verdadero riesgo.
Nota publicada en Forbes US.