Imagine que cada palabra que escribe no cae en una pantalla, sino en una cantera. No en el mármol noble de las estatuas, sino en esa piedra porosa donde se imprimen fósiles. Las preguntas existenciales, las recomendaciones de compra, la organización de un viaje, el desahogo emocional, el uso para cosas del trabajo o hasta tips para relacionarse mejor. Usted pregunta por una receta baja en sodio y cree que cocina.

El sistema, mientras tanto, clasifica e identifica tendencias de consumo, preferencias, región y todo tipo de metadata disponible como páginas visitadas o temas de búsqueda más frecuente, si es vegano o carnívoro o si evita subir fotos por inseguridad para lanzar publicidad sobre estética. Usted consulta cómo redactar una renuncia y piensa en su jefe. El sistema piensa en su perfil de riesgo laboral, en publicidad sobre emprender y animarse a viajar o información sobre personas que se convirtieron en su propio jefe y ahora viven el sueño de nómada digital.

Usted narra un insomnio y cree que desahoga. El sistema oye una métrica al tiempo que envía todo tipo de publicidad sobre medicinas y suplementos que podrían ayudar, pero en el fondo hay un perfilado que indica edad, ubicación, comportamiento y análisis profundo de patrones sobre una persona. Nuestros datos y privacidad son el precio que pagamos por probar y utilizar las maravillas de la inteligencia artificial.

Una investigación reciente de Stanford University sobre las políticas de privacidad de seis gigantes Amazon, Anthropic, Google, Meta, Microsoft y OpenAI confirma una costumbre que se ha advertido desde el inicio por los más escépticos. Sus conversaciones alimentan el entrenamiento de los modelos para hacer a la IA autogenerativa más enganchante, más asertiva, más invasiva y más poderosa en relación al conocimiento de patrones del comportamiento con finalidades de uso sin límites y con un permiso de traslado a las empresas o entidades que algunas de ellas acuerden.

Durante la “Operación Maduro” en Venezuela, el uso de Anthropic y otras IA fueron clave para la identificación y ejecución de la captura del presidente. Paradójicamente, hace unos días Anthropic fue enlistada como empresa que amenaza el desarrollo al mismo nivel que empresas rusas o venezonalas por negarse a colaborar en una contratación que permite al gobierno estadounidense utilizar la IA como herramienta de espionaje masivo directo a los usuarios y utilizar los datos para el entrenamiento de armas masivas.

Las columnas más leídas de hoy

La tercera guerra mundial podría librarse con humanos desde los países en desventaja frente a cyborg o robots letales por parte de las potencias enloquecidas de poder. Lo que Anthropic se negó a hacer fue aceptado por OpenAI, desarrolladores de ChatGPT. No es una conspiración, más bien es arquitectura bélica y reingeniería social, la IA al servicio bélico tal vez como el arma más poderosa porque los objetivos potenciales de guerra están entregando todo a sus posibles aniquiladores.

Lo inquietante no es solo que un chatbot aprenda de usted. Es que, en ciertos casos, su pregunta no se queda en el chat. Las empresas que operan estos modelos también administran buscadores, nubes, mercados, redes sociales. Los datos son pasillos cargados de historia personal y los pasillos conectan. Usted pregunta por cenas saludables para el corazón y el ecosistema infiere un posible padecimiento. No hace falta que exista, basta con que sea probable.

En la economía algorítmica, la probabilidad es moneda y también es un curso de prueba error, como si cada anuncio o respuesta fuera un anzuelo. Cualquier contenido es anzuelo y si tardamos en verlo, lo repetimos, interactuamos, lo compartimos o lo guardamos estamos participando en una pedagogía completa de nuestros gustos y afectos, como una forma de desnudez mental.

Hemos normalizado que la intimidad sea un recurso renovable. Como si el yo fuera un pozo petrolero. Pero la intimidad no se regenera a la velocidad del cómputo. Lo que se extrae —un miedo, una sospecha médica, una fractura sentimental— se convierte en señal y la señal, en segmento y el segmento, en mercado.

Hay una imagen que no abandona: la del usuario como currículum. No el documento que enviamos a un empleo, sino el programa de estudios que el sistema cursa para perfeccionarse. “Usted no es el cliente; usted es el producto, podría escribirse en letras discretas al pie de cada interfaz. No es una acusación moral; es una descripción funcional”.

Hay, sin embargo, una forma de resistencia que no pasa por el pánico ni por la tecnofobia. Pasa por la conciencia de elegir lo que compartimos, lo que preguntamos, los límites a la interacción y la resistencia a hacer absolutamente todo con IA. Elegir una IA por encima de la otra, investigar sus orígenes, legislaciones de su país sede, restricciones o aperturas. Saber que no todas las IA son iguales y no todas hacen los mismo. Ser consumidores letrados, si investigamos y comparamos productos en el supermercado, podríamos hacerlo con las empresas tecnológicas que usamos antes de guiarnos por la más popular. Saber que cada palabra tiene doble vida: la que usted cree que escribe y la que el sistema convierte en vector. Pasa por exigir transparencia, por leer las políticas de privacidad, por demandar reglas claras. Pasa por comprender que la neutralidad tecnológica es una fábula útil para quien diseña pero que mantenernos en ignorancia contribuye a que aceptemos esa dominación y sin darnos cuenta, seamos usuarios en garras de los algoritmos tomando decisiones porque creemos que eso queremos, sin darnos cuenta que estamos justamente bajo la influencia algorítmica de algo previo.

No se trata de dejar de usar estas herramientas. Se trata de dejar de usarlas ingenuamente. Si vamos a escribir en una cantera, al menos sepamos que lo hacemos, que el fósil que quede no sea solo nuestro miedo, sino también nuestra exigencia de limites.

En X: @ifridaita