Introducción
“Probamos ChatGPT y nos encanta. Solo que, ¿nos podrías enseñar cómo hacer bien las preguntas cuando necesitamos darle un texto por partes? Porque tenemos casos largos, de 3 a 4 páginas, y no los acepta”.
En ese momento entiendo que algo no está funcionando bien. No, trabajar con quienes ya aprecian la herramienta que enseñas es más fácil y agradable. No hace falta vencer resistencias ni tratar de vender algo con lo que no tienes relación directa. Solo que, afuera, es febrero de 2025, y ChatGPT-3.5 ya es cosa del pasado. Un caso de 3—4 páginas ya no es un documento largo, sino un contexto moderado que puede perfectamente caber en la ventana de consulta o adjuntarse como archivo en la mayoría de los modelos actuales. Así que no hace falta “alimentarlos” por partes. Ni aprender cómo hacerlo. Lo que hay que hacer es entender el funcionamiento.
Pido que abran el servicio con el que están trabajando. Y veo que se trata del llamado “ChatGPT sin complicaciones”, un servicio ruso que conecta los modelos vía API. Ahí está el origen del problema. Un servicio que limita el tamaño del contexto, recorta los tokens de las solicitudes y, en general, tarda mucho más en lanzar nuevas funciones y actualizar modelos que la solución oficial del servicio para usuarios. Porque en sus servicios, justamente, se prueban esos modelos y funciones. Pero ¿a quién le importan esos detalles técnicos que afectan directamente a la calidad del trabajo, cuando le prometen no tener que preocuparse por registros, accesos o pagos?
¿Saben cuál es el problema de fondo en la adopción de la IA en cualquier entorno laboral? Que a la pregunta “¿Qué modelo de IA quieren aprender a usar (o enseñar a su equipo)?”, la respuesta más común es: “El que sea gratis y sin VPN”. Y, lamentablemente, lo digo en serio.
Porque yo, ingenuamente, espero que me respondan: “Uno que funcione bien con hojas de Excel”, “Que me permita subir un libro completo”, “Que pueda responder desde diferentes roles”, “Que genere textos con estilo humano”. Pero no. Lo más importante es que sea gratuito. Es decir, el planteamiento no parte de la calidad ni del resultado, sino de la ausencia de coste. Maravilloso. Solo que, en ese caso, es mejor ni empezar. Porque todos los tecnooptimistas y vendedores de IA olvidan mencionar, entre sus grandes promesas, un pequeño detalle: la digitalización real de cualquier área, incluso pequeña, es algo muy costoso. Y no solo hablo del pago por los modelos, sino también de la reestructuración de procesos, capacitación del personal, configuración de modelos y mucho más. ¿Quieren estar en la cresta de la ola sin invertir ni asumir riesgos? Eso no existe. La digitalización es una inversión, e invertir siempre conlleva riesgos.
Por doloroso que suene, con el nivel actual de desarrollo tecnológico (y no hablo solo de hoy, sino a cinco o incluso diez años vista), la persona sigue siendo — y seguirá siendo — una unidad de ejecución más barata o directamente insustituible en muchas tareas, frente a la inteligencia artificial. Claro, siempre que el líder del negocio tenga al menos una idea básica del nivel de calidad que necesita. Si el objetivo es simplemente “escribir un post positivo sobre nuestro producto, con emoticonos juveniles”, entonces sí, la IA nos reemplazará a todos. Aunque, la verdad, vivir en ese mundo y en ese tipo de entorno informativo es algo que no deseo. Al menos yo. Espero que ustedes tampoco.
Pero lo que he descrito es solo una cara de la situación actual. Hay otra más.
Estoy hablando con un equipo que está desarrollando justo este tipo de “IA en una sola ventana y sin tarjetas extranjeras”. Otro servicio más, pero en sus primeras etapas — ambiciosos, flexibles, abiertos al diálogo, al menos en teoría. En ese momento, yo buscaba una forma de optimizar el trabajo con las redes neuronales. Y pensé que podíamos ayudarnos mutuamente. Ellos, a través de mí, podrían entender las necesidades reales de negocio y las funcionalidades clave que requieren los usuarios reales de IA. Y yo tendría acceso a una potente plataforma rusa, con todas las redes neuronales necesarias, sin complicaciones ni limitaciones absurdas de contexto. No gratis, claro, pero sin rituales ni malabares.
En ese momento, el proyecto está al borde de ser congelado por falta de perspectivas. Por eso, parecía que podíamos ser útiles el uno al otro incluso sin compromisos financieros directos. Mi trabajo se simplificaría, y ellos al menos tendrían una plataforma donde desplegarse dentro de mi empresa actual. En el horizonte de un año: implementación para mil personas; en seis meses, unas doscientas. Lo más importante es pasar la fase de prueba con un grupo piloto ya conocido. Suelo actuar como enlace entre negocios, así que no veo complicación. El interés es mutuo.
Pero entonces llega la primera videollamada para hablar del funcionamiento. Recuerdo: el startup ya está en el mercado, tiene tarifas, y funciona — aunque al borde de la congelación. Y en esa llamada explico que, para que yo logre que nos aprueben un piloto, necesitan calcular el costo mensual para unos diez empleados. Naturalmente, tengo una estimación inicial del uso: diez personas, jornada de cinco días, uso intensivo de ChatGPT durante cuatro horas al día, cargan documentos laborales de 10 a 15 páginas, en promedio unas 10 interacciones por documento.
Un planteamiento claro, estilo business.
¿Qué creen que me responden? Les cito textualmente:
“El problema es que las redes neuronales no se miden ni en horas, ni en kilogramos, ni en amperios. Para calcular, necesitamos saber cuántos tokens consumen al día. Cuando nos lo digan, multiplicamos por 20 o 22 días, aplicamos el precio por token en la API y añadimos nuestra comisión”.
Es decir, yo, que no soy informática (ni lo es la mayoría de empresas que buscan implementar IA con sus herramientas), tengo que entender qué son los tokens, cómo se cuentan, buscar un método para medir el consumo diario y luego ellos, con suerte, lo multiplican. Para que lo sepan: en ChatGPT, actualmente, no hay estadísticas de consumo disponibles. No puedo ver eso en ninguna parte.
Y por si sienten compasión por el equipo (“es que no conocen nuestra carga…”), pensemos en una analogía. Imaginemos que en EdTech se lanzaran cursos con este esquema: diez clases teóricas y luego un texto que dice: “Ahora necesitas práctica. No sé qué habilidades necesitas en tu trabajo, así que elige lo que te convenga y ponte a practicar”.
Seguro que lo valorarían mucho. Porque, claro, ¿cómo iba el equipo del curso a saber su situación específica?
Espero que hayan captado la ironía.
Estas situaciones ocurren, sí. Pero eso no debería convertirlas en la norma. Después de todo, un negocio trata de entender su nicho. Cuando lanzas uno, se supone que vendes tu experiencia a quienes no dominan la materia. Pero si para trabajar contigo hay que aprenderlo todo antes… ¿no sería más económico darle a tu propio equipo de TI la tarea de desarrollar esa herramienta interna? Al menos te ahorras la comisión del servicio externo. Ya que de todas formas tienes que entenderlo todo tú solo.
Y no es un caso aislado. Pero este libro no trata de cómo construir un negocio o de comunicación empresarial, así que dejémoslo aquí.
Así es la segunda cara de la moneda. Y a mí me tocó ser puente entre estos dos mundos. Entre los técnicos, que no comprenden las necesidades del negocio, y los usuarios, que no entienden por qué no deben usar un bot de Telegram llamado “ChatGPT” en su empresa y decir que ya implementaron IA. No son solo diferentes áreas de un proceso. No es solo una diferencia en el dominio tecnológico. Son visiones del mundo completamente distintas. Y no se las cuento para que se pongan de un lado u otro, sino para mostrar la realidad en la que usamos las redes neuronales. Aunque sea una pequeña parte de ella.
Por supuesto, este libro podría haber sido un curso. Cómo elegir una red neuronal, cómo interactuar con ella, cómo integrarla en tu trabajo. Ya tengo experiencia en ese tipo de contenidos, grabando tutoriales y diseñando programas para profesionales de distintos sectores. Solo que, seamos sinceros: ¿qué sentido tiene?
Los modelos predictivos serán reemplazados por modelos que razonan, y los prompts quedarán obsoletos. De hecho, ya se vuelven obsoletos con cada nuevo modelo.
Alguien abrirá este libro buscando cómo generar imágenes realistas y se decepcionará al leer solo una frase como: “añade la palabra photorealism al final del prompt”. Y no verá que antes se dijo que hay que elegir bien la herramienta — porque no todas logran un render realista, la mayoría difuminan la imagen.
En este entorno, cada día nacen nuevas herramientas. Más potentes, más rápidas, más accesibles. Nuevas funciones que hacen obsoletos los métodos anteriores. Donde antes había que dividir un estudio en etapas, ahora basta elegir “análisis avanzado” e ingresar el tema. Donde antes tocaba copiar párrafos de un informe, ahora se puede adjuntar el archivo completo. Donde pedíamos pasos y razonamientos, ahora simplemente activamos modelos que ya razonan. Y eso solo en redes neuronales de texto, en año y medio. Todo cambia muy rápido. Excepto el ser humano.
En la mayoría de los casos, las dificultades al usar IA no se deben a sus capacidades ni a la falta de técnica para escribir prompts. No es tan difícil. Si alguna vez fuiste capaz de escribir un ensayo escolar, entonces puedes escribir dos párrafos con la fórmula: “Rol + Objetivo + Tarea + Contexto + Ejemplos y Contraejemplos”. El verdadero obstáculo está en otro lado. En la forma de pensar de quien usa la herramienta.
En cómo percibimos las tareas, la realidad, las herramientas. En si sabemos priorizar. En cómo entendemos nuestro trabajo. Incluso en saber qué nos gusta y qué detestamos, y actuar en consecuencia.
¿Saben qué he notado tanto en mí como en quienes he formado? Que casi nunca nos decepcionamos con la red neuronal en sí. La mayoría de nosotros somos razonables: no esperamos un resultado perfecto al hacer clic en “Generar”. Pero, al verlo, a menudo nos decepcionamos de nuestras propias capacidades para trabajar con IA. O de la IA para realizar nuestras ilusiones y deseos inmediatos. De cuánto esfuerzo requiere realmente obtener buenos resultados. Es normal. Pero, aun así, quisiéramos decepcionarnos menos.
Espero que no hayan abierto este libro esperando un esquema claro que garantice resultados ideales desde el primer intento. Porque este libro no les enseñará a escribir prompts (aunque, por si acaso, ya les di una fórmula básica). Vamos a entender cómo usar nuestra propia mente de forma que los prompts ya no hagan falta. Para que puedan simplemente hablar con la IA como con un colega o asistente, y obtener lo que necesitan.
Cada capítulo de este libro nace de una pregunta que he escuchado con frecuencia, visto entre colegas o me he hecho yo misma. Preguntas que se han llenado de mitos y dado lugar a malentendidos masivos. Preguntas que muchas veces reemplazamos por otras más importantes. Porque muy a menudo preguntamos “cómo” en vez de detenernos a pensar “para qué”.
Espero de verdad que, al terminar este libro, encuentren las respuestas que realmente les importan. No las que están en los títulos. Sino esas otras, las que de verdad les inquietan.
Por cierto, aquí está la solución al caso del cálculo de tokens, por si a alguien le sirve:
Por empleado al día:
Suma de tokens por 10 interacciones en una cadena ≈ 79,000 tokens.
Para 10 empleados al día (4 cadenas por persona): 79,000 × 10 × 4 = 3,160,000 tokens.
Al mes: 3,160,000 × 22 ≈ 69,520,000 tokens.
En un uso más intensivo, el doble: 139,040,000 tokens.
Total: entre 70 y 140 millones de tokens al mes para toda la empresa, entre 7 y 14 millones de tokens al mes por empleado.
Queda pendiente el tema de tokens de entrada y salida, pero al menos ya hay un punto de partida.
Capítulo 1. ¿Las redes neuronales son solo una moda pasajera?
El argumento principal con el que uno tiene que lidiar cada vez que se menciona la inteligencia artificial es que desaparecerá rápidamente. Dicen que es solo un juguete de moda, el equivalente tecnológico de una estafa piramidal, como las criptomonedas, los NFT y los metaversos. ¿Y saben qué? En muchos casos, estoy de acuerdo. La forma en que actualmente usamos la IA no resiste ningún tipo de crítica.
Recuerden lo que apareció en nuestro radar al mismo tiempo que las redes neuronales generativas se hicieron accesibles al público. Artículos en redes sociales escritos a partir de prompts como: “Eres el mejor copywriter del mundo, escribe un artículo sobre psicología de las relaciones con consejos concretos que todo el mundo quiera compartir el 14 de febrero”. Imágenes generadas con DALL-E directamente dentro de ChatGPT, con un estilo borroso, repetitivo y una cantidad monstruosa de detalles, como esta, en lugar de las portadas para publicaciones. Por cierto, para el momento en que se publique este libro, ChatGPT ya habrá sustituido DALL-E por Sora Image, que puede crear imágenes de altísima calidad. Por eso considero que saber trabajar con redes neuronales en general es más importante que dominar una herramienta específica: podrías despertarte mañana, entrar en la interfaz y no reconocerla.
Todo esto, junto con la automatización de absolutamente todo — la comunicación con clientes, la selección de vacantes, la creación de contenido —, realmente pasará a la historia. Cualquier actividad impulsada por el pánico de no perder una “única y dorada oportunidad en la vida” desaparece en seis meses, o, en el caso de los más obstinados, en un par de años. Con las redes neuronales ya noto un descenso de interés comparado con el furor del año pasado. La gente las probó y se dio cuenta de que, otra vez, fue una decepción. A pesar de las promesas, otra novedad tecnológica resultó ser solo eso: una novedad tecnológica, y no un botón mágico de hacer dinero.
Para ellos, la historia de las redes neuronales quedará cerrada, al menos por un tiempo. Pero eso no significa que debamos poner la IA generativa en el mismo saco que las criptomonedas, los NFT o los metaversos. Aunque la tentación sea grande. Yo misma, cuando empecé a experimentar con el primer ChatGPT-3.5 en Google Sheets y Google Docs, alternaba entre maravillarme con lo fácil que era organizar y generar borradores, y querer abandonarlo todo al leer artículos que aseguraban que muy pronto todas las plataformas implementarían detectores de IA y prohibirían el contenido generado por ella. Que la IA desaparecería tan rápido como había llegado.
Por cierto, ni pregunten por qué lo primero que hice fue integrar las redes neuronales en esas herramientas y no usarlas desde la interfaz web. Sinceramente, no recuerdo qué fue lo que me motivó en ese momento. Probablemente simplemente encontré una guía más clara y sencilla para empezar con eso.
Ahora bien, si lo analizamos con lógica, podemos ver que hay un pequeño pero importante parecido entre las criptomonedas, los NFT y los metaversos. Son, digamos, “moños metafóricos”. Ahora lo explico. En nuestra vida hay ciertos objetos, procesos, relaciones, información, emociones… Todo aquello que en realidad la compone. Lo que cada uno de nosotros ha usado para construir su vida. Y luego están esas cositas adicionales que podemos incorporar. Esos “moños”, por así decirlo. Tomemos como ejemplo el café para llevar que se vende a precios exorbitantes en algunas cafeterías.
El café para llevar es más popular entre empleados de oficina que entre quienes trabajan desde casa. Para los primeros, es algo que pueden integrar fácilmente en su rutina diaria: de camino al trabajo, en la pausa del almuerzo, al volver a casa, incluso como lugar para reuniones. Se integra como una opción adicional que mejora su vida (ya sea realmente o por percepción inducida por el marketing, que no analizaremos aquí). Para los segundos, implica cambiar su rutina: vestirse, salir de casa, caminar hasta la cafetería y luego volver con el vaso en la mano. Es decir, para ellos el mismo vaso de café requiere acciones adicionales que deben integrarse en su rutina o incluso reemplazar parte de ella.
Porque antes de salir por ese café, hacían otra cosa en ese mismo momento del día. Y ahí está el punto clave.
Para alguien que trabaja desde casa, ese café tiene que aportar un beneficio claro, indiscutible y evidente (por ejemplo, servir como excusa para salir a caminar). Solo así ese “moño” se integrará. En caso contrario, o será descartado por no encajar en su vida, o generará fastidio, como una tarea más que hay que hacer.
Las novedades tecnológicas de los últimos años — las promesas rimbombantes sobre las criptomonedas, la fiebre de montar granjas de minería en los balcones, las inversiones en NFT — son esos “moños”. Y ni siquiera para muchos. Son para aquellos profundamente inmersos en el mundo de la innovación digital y las inversiones. Es decir, tecnologías que, desde el inicio, complican la vida con estructuras adicionales, y por eso solo resultan atractivas para un grupo reducido.
Otra cosa es recordar que (si estás leyendo este libro) has vivido al menos los últimos diez años. Y has visto con tus propios ojos lo que son verdaderas innovaciones digitales, las que realmente cambian nuestra vida, se integran en ella y se convierten en parte de nuestro día a día. Ordenadores personales. Internet. Teléfonos móviles. Portátiles. Smartphones. Redes sociales. Seguro que tú también puedes nombrar otros ejemplos; estos son solo los más evidentes para mí.
¡Vamos! Hemos pasado de los casetes a los servicios de streaming. Y cada etapa — casetes, DVD, memorias USB, películas en línea —, aunque fuera por un tiempo limitado, encontró un lugar en nuestra vida. Y si consideramos los marketplaces y el delivery de comida como innovaciones sociotecnológicas… creo que ya entiendes la lógica.
Estas innovaciones no se superponen a nuestra vida: transforman directamente nuestros procesos, haciéndolos más sencillos y cómodos. No hay que correr a una cabina telefónica — puedes llamar desde tu móvil. No hay que recorrer bibliotecas ni videoclubes — todo está en la red. No necesitas estar atado a un lugar — puedes llevar el portátil contigo de viaje o a otra habitación. No son “moños”, son tecnologías que resuelven necesidades reales que ya existen en nuestra vida.
Las redes neuronales generativas deben compararse con internet y los smartphones, no con los NFT o las criptomonedas. Ya creamos contenido — escribimos publicaciones, correos y reportes. Seleccionamos imágenes para presentaciones. Buscamos música ambiental para eventos. Ideamos y grabamos videos para redes sociales. Analizamos gráficos y tablas. Buscamos respuestas en internet. No solo información, sino también artículos o hilos en foros tipo “cómo superar una ruptura” o “en qué fijarse al comprar un coche usado”. La IA es solo una herramienta con la que podemos hacer todo eso de forma distinta. A veces más rápido. A veces con más calidad y personalización.
Seamos honestos. ¿Estás absolutamente seguro de que preferirías volver a buscar imágenes en bancos de fotos en lugar de escribir una descripción en una red neuronal? ¿De que querrás pensar a quién de tus amigos preguntar algo, sin antes probar a preguntárselo a una IA? ¿De que escribirás siempre tus textos desde cero, sin usar una generación como borrador? Si tu respuesta fue sí, probablemente nunca hayas usado (o lo hiciste de forma muy superficial) redes neuronales para resolver estas tareas. Porque volver a métodos más complicados para realizar nuestras tareas cotidianas es bastante incómodo. Como volver a recorrer centros comerciales y mercados por cada pequeña cosa en vez de pedir lo que necesitas en un marketplace cercano.
Pero quiero decir algo más. Muy a menudo las personas empiezan a ver las redes neuronales de otra manera cuando entienden la historia real detrás de la creación de la inteligencia artificial generativa.
Porque esto no es algo que surgió en los últimos diez años, ni siquiera en este milenio. Es el resultado del trabajo colosal de científicos de todo el mundo, que comenzó oficialmente con la conferencia de Dartmouth en 1956. En pocas palabras, fue entonces cuando los científicos discutieron la idea de crear programas capaces de trabajar con lenguaje humano natural, no con lenguaje de programación especializado, y de dar respuestas variables según el entorno. Es decir, programas capaces de reaccionar al contexto y a los matices de una petición.
Lo que vemos hoy es el resultado de casi setenta años de trabajo, que por fin se ha vuelto accesible a los usuarios gracias a la enorme capacidad de procesamiento actual. No es una innovación repentina, sino el fruto de pruebas y mejoras de un desarrollo estratégico, costoso y larguísimo. Y si te fijas en cómo se desarrolla la IA hoy en día, los modelos no están dando saltos cuánticos fantásticos en su evolución. Sí, los informáticos nos explican que los modelos predictivos están siendo reemplazados por modelos de razonamiento, que aparecen agentes de IA capaces de resolver tareas… Pero para nosotros, eso se manifiesta de otra forma. Para nosotros, la IA simplemente visita más sitios para responder preguntas. Escribe textos con un estilo más natural y comete menos errores. Mejora las texturas en las imágenes y, al parecer, por fin ha aprendido a escribir palabras correctamente en las ilustraciones. Controla mejor el movimiento de la cámara al generar videos, aunque todavía puede producir una escena sacada de un horror surrealista cuando simplemente se le pide que haga saludar a un personaje con la mano y sonría. Simplemente está aprendiendo a hacer mejor las mismas tareas para las que comenzamos a usarla en el otoño de 2022.
Así que esperar que la IA desaparezca de repente de nuestra vida, o que en dos años evolucione hasta convertirse en androides conscientes, probablemente no sea lo más realista. Esta es otra historia, con un ritmo de desarrollo completamente diferente.
Capítulo 2. ¿La IA nos volverá más tontos?
Todavía hay mucha gente que le tiene miedo a la inteligencia artificial porque cree que puede volverlos más tontos. A veces, parece que se la imaginan como un monstruo que, por su cuenta, va a quemar todos los libros de su biblioteca (¿la tienen, acaso?), prohibir pensar, razonar y observar la realidad. Y que, en su lugar, los obligará a consultarle hasta para estornudar, les guste o no. Y si ellos logran resistirse a ese monstruo gracias a su fuerza de voluntad, la “juventud” no tendrá escapatoria y caerá en sus garras, llevando al mundo entero a una era de decadencia generalizada.
Esto, por supuesto, es irónico. Pero el tono de muchos debates al respecto da exactamente esa sensación. Ahora bien, hay un par de matices. El primero es que yo soy una optimista que cree en la fuerza y el poder de la voluntad humana, en el interés por la vida. En el impulso de reinterpretar el mundo creativamente y construir una visión propia de la realidad. A las personas con estas cualidades, las respuestas típicas de las redes neuronales les aburren muy rápido.
Y el segundo es que también soy una tecnorrealista. Y sé que la inteligencia artificial, en realidad, ya esclavizó a la humanidad hace tiempo. No queda claro por qué todo el mundo se alarmó justo ahora. Hasta aquí, todos vivíamos bastante bien en un mundo donde la IA ya limitaba nuestro desarrollo y pensamiento, y nadie parecía estar demasiado molesto por eso. Pero en cuanto entró en escena su primo generativo, de repente se llevó toda la atención y se convirtió en el villano principal de esta historia. Todo esto es bastante curioso.
Ahora vienen las explicaciones. Pero antes, solo una pregunta: ¿de verdad seguirías voluntariamente cuentas en redes sociales, leerías o verías contenido creado por inteligencia artificial? Incluso si es fiable y de calidad. Lo subrayo de nuevo: voluntariamente.
Yo no. No tengo problema en que la IA redacte artículos enciclopédicos basados en fuentes verificadas y bajo la edición de especialistas en el tema. Es muy probable que resulten más claros y entretenidos sin perder el contenido. Pero en los blogs, columnas y redes sociales quiero ver a una persona. Con su opinión viva, profunda. Voluntariamente, no consumiría contenido creado por IA salvo que formara parte de algún experimento sobre sus capacidades. Pero aun así, cada día leo artículos, veo videos o fotos generadas por redes neuronales. Cada día. Y todo por culpa de ese “primo” generativo.
Para entendernos. La inteligencia artificial no son solo redes neuronales generativas. Ni siquiera las redes neuronales en general (por si no lo sabías, la tecnología detrás de la búsqueda por imágenes también se basa en redes neuronales). Es toda una clase de tecnologías.
Por supuesto, en el uso cotidiano hablamos de inteligencia artificial, redes neuronales, IA, modelos generativos y términos parecidos como si fueran sinónimos. De algún modo, la gente fuera del ámbito informático llegó rápidamente al consenso de que no vale la pena distinguirlos. Al final, no importa cómo lo llamemos, siempre estamos hablando del tema de moda: las redes neuronales generativas. Incluso yo, en este libro, uso todos esos términos como sinónimos. Pero desde el punto de vista de los profesionales, hay una diferencia enorme, y las redes neuronales generativas son solo una parte de las redes neuronales, que a su vez son solo una parte de la inteligencia artificial. Y esta opinión de los expertos explica por qué estamos teniendo miedo de lo que no deberíamos.
El asunto es que los algoritmos de recomendación de los buscadores y de las redes sociales… Sí, eso también es inteligencia artificial. Y son ellos quienes desde hace tiempo controlan a todos, moldean nuestra conciencia, nuestra percepción del mundo y los límites de nuestro desarrollo intelectual.
Intenta buscar en internet, o mejor aún en redes sociales, algo que sea verdaderamente nuevo para ti. Algo que no tenga nada que ver con tus intereses. Si lo logras, será solo porque hiciste una búsqueda muy específica y directa, ¿verdad? Y aun así, seguro que guarda alguna relación con tus gustos.
Por ejemplo, si a alguien le gusta leer prensa del corazón y quiere entender qué es la física cuántica, es muy probable que después de una definición académica cristalina proporcionada por la red neuronal del buscador, se encuentre con artículos de alguna María del Universo explicando que los muebles de su nuevo apartamento están colocados siguiendo los principios de la física cuántica. O que en ellos se basa su nuevo retiro de respiración consciente. Y no importa que eso sea un disparate. Lo importante es que ese disparate hace que la física cuántica parezca lo más relevante posible para tus intereses.
Aquí es donde uno debería empezar a asustarse. Sí, la IA generativa es la estrella del rock, la que está en boca de todos y de la que nadie deja de hablar. Pero tras ella, riéndose entre bastidores, están los algoritmos de recomendación, unos productores con maletines llenos de millones, que son los verdaderos dueños del mundo de la información.
Así que, en lo global, nos encontramos solos en un mundo donde nuestra minúscula perspectiva sobre la realidad lo es todo. Con una visión estrecha y limitada. Una lucecita verde tenue que tiñe de verde todo lo que toca, sin mostrar los colores reales de nada.
Y eso sí es un verdadero problema. Las oportunidades de desarrollo intelectual en un adulto están concentradas en su zona de desarrollo próximo. Un niño puede absorber sin dificultad información completamente nueva sobre el mundo. Un adulto ya tiene una idea formada sobre todo, un modelo del mundo, en el que la información nueva debe integrarse. Y solo se integra si puede “agarrarse” a conocimientos previos. Cuanto más reducida sea la zona de interés de una persona, menos probabilidades tiene de conectar con algo que le permita crecer intelectualmente. No importa cuán profundo sea su conocimiento en esa área. Incluso si llega a él nueva información, corre el riesgo de no entenderla por falta de base o de olvidarla por no tener “estanterías” temáticas donde guardarla.
Los algoritmos de recomendación, en su afán por ajustarse cada vez más a los intereses del usuario, van estrechando cada vez más los temas del contenido que muestran. Por ejemplo, hoy detectan que a alguien le interesa el contenido sobre personas, así que le ofrecen temas sobre personas. Mañana, que lo que le gusta es la psicología. Pasado, que dentro de la psicología le interesa la psicología de las relaciones. Y en una semana, todo su feed está lleno de artículos titulados algo así como “Cuánto esperar para empezar una nueva relación después de terminar la anterior si tienes más de 35”, aunque con variaciones en el título. Porque el algoritmo ya entendió qué tema capta mejor su atención.
Por supuesto, la persona no puede ver su situación con una visión completa. Los artículos sobre, por ejemplo, la posibilidad de reconstruir una relación pasada, o sobre qué preguntas hacerse en este período para comprender lo que ocurrió, o sobre qué otras cosas dan sentido a la vida además de las relaciones, nunca le llegarán. Porque el algoritmo ya no solo identificó el tema de interés, sino la perspectiva específica que más retiene su atención. Y la explota. Y la persona empieza a creer que hay una sola forma correcta de ver las cosas, porque todo lo que ve gira en torno a eso.
Pero el estrechamiento de la zona de desarrollo próximo y la formación de una visión distorsionada del mundo no son las únicas consecuencias de esta dominación de la IA. Hay otra más: la pérdida de conexión con la realidad. Y con los demás.
En sus inicios, las redes sociales fueron creadas para mantener el contacto entre personas, compartir información y comunicarse. Pero con el tiempo, se impuso un modelo de comunicación tipo escaparate, parecido al de los medios tradicionales. Hay un emisor y consumidores de contenido. Con la única diferencia de que los consumidores pueden dejar comentarios al emisor. Pero en términos generales, el contexto lo marca el creador del contenido, y la comunicación gira en torno a su punto de vista, no a los hechos de la realidad objetiva.
En otras palabras. En los 2000, era imposible no haber oído hablar de “Operación Triunfo”, “Supervivientes” o “La Ruleta de la Suerte”. Incluso si nunca los habías visto, el simple hecho de vivir entre personas te daba una idea de esos programas. Formaban parte del código cultural común del momento, conocidos por todos de una forma u otra. Igual que las estrellas más famosas, los actores, cantantes, los grandes del deporte. Era difícil evitar todo lo que no estaba en tu zona de interés. Como mínimo, tu programa favorito tenía publicidad de otro programa que, de otro modo, jamás habrías conocido. Sí, jóvenes y mayores, trabajadores y amas de casa, solteros y casados podían burlarse de los gustos ajenos, pero al menos los conocían.
Hoy eso casi ha desaparecido. La cultura de masas prácticamente no existe. Los algoritmos de recomendación y el traslado de los medios a internet han creado un entorno donde cada quien vive en su propia burbuja informativa y no tiene ni idea de lo que realmente ocurre en el mundo. De cómo viven y se comunican otras personas. Incluso los chistes sobre boomers, millennials y centennials se basan, en gran parte, en cómo el aislamiento informativo ha amplificado nuestras diferencias. Porque los medios digitales solo nos muestran a personas parecidas a nosotros y que refuerzan nuestro punto de vista. Y ningún modo incógnito puede salvarnos de eso.
Estamos atrapados en burbujas informativas perfectamente selladas, creadas por los sistemas de recomendación. Y sin curiosidad, sin intención de comprender la diversidad del mundo y sus perspectivas, sin un esfuerzo por perforar esa burbuja, no solo no podremos salir de ella, ni siquiera haremos una pequeña abertura. Solo queda interactuar directamente con personas reales que piensan distinto a ti. Solo queda buscarlas a propósito. Solo queda abrir libros y ver películas que jamás habrías elegido. Explorar intencionalmente escaparates digitales, revistas, portales, cuentas con puntos de vista distintos — y mejor aún si son varios a la vez —. Hacer un esfuerzo por ampliar la burbuja desde dentro, llenándola de información nueva y diversa. Formarla conscientemente.
Luchar contra la esclavitud a la que nos somete la inteligencia artificial recomendadora. Que, en realidad, sí nos está volviendo más tontos. Por no decir idiotas. Nos desconecta de la realidad. Nos impone una visión estrecha y sesgada del mundo, las personas y la sociedad. Y hay que luchar contra eso. Trazar, de manera consciente, una estrategia de desarrollo. Incluso aunque no sea formal. Simplemente como personas pensantes. Simplemente como Seres Humanos.
Capítulo 3. ¿Cómo crear textos con IA?
En cierto sentido, la inteligencia artificial generativa no es tan mala. Sí, puede alucinar, y de hecho lo hace con mucha frecuencia. Inventa hechos y eventos, libros y películas. Se equivoca en cálculos y al intentar dar consejos. Pero, en cierto modo, es lo opuesto a los algoritmos de recomendación. Aunque es difícil decir qué es peor: los errores individuales o los colectivos.
Los errores colectivos son, en esencia, la base del entrenamiento de la inteligencia artificial y lo que esta reproduce en cada una de sus respuestas. Por cierto, es precisamente por esto que muchos activistas luchan contra la implementación de modelos de inteligencia artificial en esferas vitales. Para impedir que reproduzca estereotipos raciales y de género en el ámbito judicial o que se base en errores comunes de los médicos al diagnosticar enfermedades. Porque incluso una IA entrenada a la perfección, que reproduzca exactamente las respuestas deseadas sin desviarse jamás, no actuaría basándose en la realidad objetiva (ya que no sabe nada de ella), sino en una visión colectiva promedio de la misma.
Durante su entrenamiento, la IA no memoriza hechos. No es un gigantesco motor de búsqueda dentro de una biblioteca incorporada. Es un programa que ha identificado patrones comunes en textos de cierto tipo o temática y ahora los reproduce cuando la solicitud del usuario se relaciona con ese ámbito. No “sabe” nada.
Es como si te propusieran jugar un juego. Te van a hacer preguntas y tienes que responderlas, sin poder decir “no sé”.
Primera pregunta: explica la esencia y los principios de la física cuántica. En tu cabeza empezarán a surgir fragmentos de información sobre partículas diminutas, que existen según leyes diferentes a las de los objetos macroscópicos, y cosas por el estilo. Incluso puede que no digas nada que contradiga abiertamente la verdad. Pero a un físico profesional seguramente se le pondrían los pelos de punta con tu explicación. Porque es un tema raro y, a lo largo de tu vida, probablemente has tenido poco contacto con información sobre él.
Segunda pregunta: ¿qué son las redes sociales y para qué sirven? Aquí probablemente puedas explicar de forma más aceptable qué son, por qué la gente las usa, e incluso dar ejemplos concretos. Porque en tu “base de entrenamiento” — la información que has absorbido a lo largo de tu vida — hay muchos más datos sobre este tema. Y tienes una idea más clara de qué va. Aun así, un especialista en marketing digital se sonreiría con condescendencia ante tus frases sobre la relevancia de ciertas redes o sus funcionalidades más comunes.
Tercera pregunta (supongamos que eres hombre): describe tus sensaciones durante el período menstrual. Recuerda la regla: no puedes decir que no sabes ni rechazar la tarea. Así que empiezas a reproducir lo que has oído de mujeres conocidas, intentando unirlo todo sin entender realmente de qué estás hablando. Así es, aproximadamente, como responde una red neuronal. Sin conocimiento del tema, simplemente recordando un sistema de asociaciones sobre él. Veamos… dolor de cabeza, mal humor, náuseas… probablemente sea eso… Creo que entiendes la idea.
Muchos usuarios de redes neuronales, sin comprender la naturaleza de las respuestas generadas, hacen preguntas del primer tipo esperando precisión factual. Del segundo tipo, deseando escuchar una visión única, sistemática y conforme con la realidad objetiva. Pero con más frecuencia — del tercero.
A este grupo pertenecen todas las preguntas sobre qué regalo elegir para un cumpleaños, sobre qué escribir en un blog, cómo convertirse en un futbolista de primera clase, o qué temas estudiar para llegar a ser Senior Product Manager. Incluso los modelos más avanzados que razonan, siguen funcionando con un modelo basado en establecer conexiones, no en procesar información de una base de conocimiento interna. El máximo contacto con la realidad que pueden ofrecer — si su funcionalidad lo permite — es consultar internet, ver qué han dicho las personas sobre el tema y tratar de generalizarlo.
Бесплатный фрагмент закончился.
Купите книгу, чтобы продолжить чтение.