La IA ha explotado a nivel mundial a partir del 2022, cuando OpenAI lanzó la plataforma ChatGPT y estremeció los cimientos de la estrategia de información de las organizaciones. Y desde entonces, no ha hecho más que acrecentarse su relevancia en seminarios, conferencias, lanzamientos, startups e innovaciones a lo ancho y a lo largo del espectro de aplicaciones empresariales, gubernamentales y sin fines de lucro.
¿Cómo nos puede impactar? ¿Qué beneficios nos puede ofrecer? ¿Qué riesgos enfrentamos al adoptarla?
Lo cierto es que el mundo de la IA es muy amplio, y conviene empezar identificando bien qué es y qué no es lo que se conoce con el título genérico de "inteligencia artificial".
En primer lugar, para ser claros y limpiar cualquier prejuicio de raíz, hay que saber que la inteligencia artificial es software desarrollado por personas, y por lo tanto, consiste en un conjunto de programas, métodos y algoritmos que permiten procesar la información de entrada (los inputs) en información de salida (los outputs).
Lo que ocurre es que los métodos en los que se basa la inteligencia artificial requieren la utilización de matemática superior y modelos avanzados de simulación que son conocidos en el mundo científico desde hace décadas.
Adicionalmente, la combinación ingeniosa de estos métodos y modelos permite lograr resultados extraordinariamente inusuales que nos sorprenden.
Por eso, la dificultad para comprender los principios científicos en los que se basa la inteligencia artificial y los outputs novedosos que entregan, hacen que la inteligencia artificial sea inaccesible para la gran mayoría del público usuario.
Nos cuesta tanto entender la mecánica de cómo se transforman los inputs en outputs, que le asignamos el calificativo de "inteligentes", y como no es inteligencia humana, sino resultado de un software, es que le agregamos el adjetivo de "artificial".
Pero bien, dentro de la inteligencia artificial existe un subconjunto de métodos y modelos que se conocen como Machine Learning (ML o aprendizaje mecánico) y que sirven para modelar un sistema que queremos estudiar para predecir su comportamiento, que suena más difícil de lo que es en realidad.
¿Dónde va a estar un planeta en la órbita alrededor del Sol dentro de X días, meses o años? ¿Cómo estará el clima esta próxima temporada? ¿Cuánto estimamos que puede ser el índice de precios a fin de año? ¿Esta imagen contiene un gato? ¿Qué producto conviene ofrecerle al cliente cuando ha adquirido este otro? Todos estos son "sistemas" que queremos estudiar ya que su comportamiento está sujeto a una serie de variables que, con mayor o menor grado de certidumbre, podemos predecir. ¿Hay algo de "magia" en algo de esto? ¡De ninguna manera!
Sigamos. Dentro del campo del ML existe otro subconjunto de métodos y modelos que se conocen como Deep Learning (DL o aprendizaje profundo) y que son aún más sofisticados y complejos: las redes neuronales.
Si queremos interpretar si hay un gato en una imagen, estos algoritmos dividen la imagen en recuadros grandes, lo pasan por una primera "capa" de la red neuronal (que sirve para entender recuadros grandes), luego el resultado lo subdividen nuevamente y se lo pasan a otra "capa" de la red que sirve para entender recuadros más pequeños, y así sucesivamente, hasta identificar qué forma tiene lo que se acaba de analizar.
Esta idea de "capas" es lo que dio el origen de "deep", o aprendizaje profundo o en profundidad, porque las redes neuronales tienen muchísimas "capas", y mientras más capas tiene, más sofisticado puede ser el análisis y el resultado de la predicción. No obstante, estos sistemas siguen ofreciendo un determinado grado de certeza de su resultado, al igual que el pronóstico del tiempo nos dice que la probabilidad de lluvias el fin de semana será del 75%. No es una predicción, sino una estimación.
¿Y por qué se habla de "aprendizaje" en ambos casos? Porque para que estos métodos funcionen, requieren "entender" (o aprender) cómo funcionan los sistemas a analizar para estimar su comportamiento futuro. Es decir que a estos sistemas de ML y de DL hay que "entrenarlos" para que "aprendan" cómo funcionan los sistemas sobre los que queremos hacer estimaciones. No voy a explicar aquí cómo se lleva a cabo este entrenamiento.
Una de las aplicaciones de los métodos de DL son las que procesan lenguaje natural (o NLP por su sigla en inglés): saber qué quiere decir una persona cuando dice algo usando las palabras del lenguaje cotidiano, y no en una instrucción de lenguaje de programación.
Decirle a nuestro asistente de voz: "Comunícame con Juan Carlos" es una forma de dar una orden y que detrás necesita un sistema de NLP que sepa entender lo que le estamos pidiendo que haga.
Y por último, llegamos a los grandes modelos de lenguaje (o LLM por su sigla en inglés) de los cuales el exponente más famoso es ChatGPT como mencioné al principio de este artículo.
Los LLM son viables tecnológicamente gracias al impresionante avance del hardware de cómputo de alta velocidad y capacidad como los que ofrecen las placas NVIDIA que pueden salir millones de USD. Estos modelos son entrenados mediante miles de millones de secuencias de palabras, para lo cual se requieren centros de cómputo enormes que están sólo al alcance de compañías globales multimillonarias como OpenAI, Meta, Google o Microsoft (entre otras).
Al estar entrenados con cantidades insondables de textos, estos modelos pueden "predecir" (o sea, estimar) que frente a un determinado texto de input (lo que le preguntamos), cuál es el texto de output (lo que nos responde el modelo) que más se aproxima al esperado, en función del entrenamiento recibido.
Cuando las organizaciones enfrentan el desafío de utilizar un LLM (u otros modelos de IA mencionados) deben considerar que la calidad de los resultados es directamente proporcional con la calidad de los datos utilizados para entrenarlos.
Por eso decimos que es fundamental organizar buenas prácticas para el Gobierno de la Inteligencia Artificial en la organización, y de esta manera, asegurar la transparencia, objetividad y precisión de la información generada.
De lo contrario, los modelos "inteligentes" van a producir desinteligencias imprevisibles.