“…Lo más interesante es que el proceso se autocorrige y aprende por sí solo, mediante el denominado “aprendizaje profundo”, por eso se llama generativo…”
Jorge Puigbó
Las cosas que no entendemos, o aquellas que no nos interesan, son las que, con el paso del tiempo, generalmente, nos ocasionan los mayores perjuicios cuando despreocupados nos alcanzan sus consecuencias. Este artículo trata acerca de la injerencia cada vez mayor de la Inteligencia Artificial (IA) en nuestra cotidianidad. Es una tecnología que apenas comienza a ser conocida por el público, la cual se suma a nuestras circunstancias y nos afectará para siempre. Lo primero es recordar lo que es la IA diciendo que el programa de IA generativa incorporado a la computadora trasforma el lenguaje natural, o la información, en números para poderlo procesar mediante reglas establecidas y producir un resultado en un lenguaje entendible para el ser humano, en ese sentido el modelo busca y lee en la “Big Data”, inmensa base de datos acumulada por las supercomputadoras, una palabra, la comparar con infinidad de escritos acumulados en millones de fuentes en Internet y escoge por probabilidades, para así dar una respuesta lógica mediante la construcción de oraciones que contengan la información solicitada. Lo más interesante es que el proceso se autocorrige y aprende por sí solo, mediante el denominado “aprendizaje profundo”, por eso se llama generativo. Indudablemente, hay que comprender que, el mecanismo para llegar a ese objetivo se basa en que la información suministrada sea prístina, o sea sin ningún tipo de error, manipulaciones o falsedades, ni siquiera puede haber contradicciones o dudas, por cuanto la maquina no puede discernir, ni entender, o sea, todavía no puede razonar como el ser humano y menos sentir. Lo mismo ocurre cuando le damos una orden o información oral, el programa lo traduce y convierte primero en palabras y luego busca en la base de datos, por tanto, mientras más fuentes confiables se consulten, mayor certeza habrá en el resultado.
Aquí solo nos referiremos a las implicaciones que, para las personas tiene esta aplicación, unas son positivas, indudablemente, y otras no tanto, incluso son tan preocupantes que científicos y autoridades de todos los gobiernos están trabajando arduamente para poder reglamentar su uso y no sea utilizada con fines ilegales. Brookings en un artículo del 29 de enero de este año, titulado “La regulación eficaz de la IA requiere comprender la IA de uso general”, escrito por Aylin Caliskan y Kristian Lum, plantea que, paralelamente a investigadores científicos “…hemos desarrollado métodos a fin de evaluar modelos de aprendizaje automático e inteligencia artificial (IA) para detectar (en ellos) problemas de sesgo, discriminación y otros impactos adversos, así como para mitigar otros problemas a medida que surgen. Estos avances han descubierto comportamientos problemáticos de los modelos y han informado con éxito el uso de algoritmos en entornos de alto riesgo. Sin embargo, los avances recientes en IA ofrecen nuevos desafíos para la evaluación y la regulación. Los modelos algorítmicos más tradicionales se diseñaron en gran medida para un contexto específico. Cuando el contexto se conoce a priori, es más fácil prever los impactos adversos. Sin embargo, la última generación de modelos de IA tiene un propósito mucho más general y el alcance total de sus usos potenciales es actualmente desconocido para el público. Sin una mejor información sobre cómo se utilizan los modelos de IA generativa, los investigadores y los responsables de la formulación de políticas deben discutir los riesgos hipotéticos de la IA en abstracto, no los riesgos concretos que enfrentamos actualmente…”, de lo anterior se deducen dos cuestiones a considerar, una de ellas es la velocidad en el desarrollo de la aplicación lo cual impide conocer a tiempo el proceso y la técnica utilizada, debido a la incorporación de tecnología novedosa que modifica rápidamente la información con la cual se cuenta; el otro aspecto es su difusión al público sin regulaciones de ningún tipo, en medio de un gran vacío de normas que aseguren su uso por las personas adecuadas y para los fines deseados, lo cual está ocurriendo ya, y podría suceder que, como la Internet, un submundo virtual, libre y sin leyes, se transforme en un instrumento de la delincuencia, del abuso, de la manipulación política, de la mentira y otros aspectos poco deseables. Imaginemos por un instante, qué sucederá cuando estas tecnologías, maliciosamente manejadas, se complementen y se conviertan en armas poderosas que pudieran desequilibrar economías completas con sus ataques, influir de forma determinante en elecciones políticas para cambiar el rumbo de los estados, tomar el control de grandes empresas, llevar las guerras a una escala superior donde las máquinas apenas necesitan ser controladas y decidan por ellas mismas.
La IA nace, como dijimos, a partir de la capacidad de almacenar enormes cantidades de información en una base que se denominó “Big Data”, lo cual hace unas décadas resultaba imposible de realizar sin el desarrollo de súper computadoras que permitieron su almacenaje y eso que todavía no hemos dado el salto exponencial a las computadoras cuánticas. La IA generativa tiene como objetivo que las computadoras piensen, aprendan y reaccionen como los humanos mediante algoritmos que son procedimientos diseñados para funcionar por etapas, un conjunto de reglas que hay que seguir para realizar una tarea o resolver un problema. Las operaciones matemáticas, una simple receta para elaborar algo paso a paso o las instrucciones para armar un juguete, nos dan una idea al respecto. En este caso los algoritmos son conjuntos de reglas, escritas en lenguaje de programación, que indican al ordenador qué pasos debe realizar y su orden para realizar una tarea específica.
Para entender la aplicación compleja de estos modelos y su influencia en nosotros, baste traer algunos ejemplos de lo que hoy nos permiten tener y hacer: mandos de equipos electrónicos activados por voz; detección de fraudes; visión artificial para el reconocimiento facial de rostros, de amplia aplicación en materia de seguridad y control policial de la población; lecturas de huellas digitales; vehículos autónomos que detectan por visión artificial las señales de tráfico, obstáculos y peatones; cámaras que reconocen el entorno y lo analizan; realidad virtual; sistemas de defensa que identifican, comparan y analizan imágenes de radar o satelitales para la toma de decisiones; en medicina el análisis de imágenes para diagnosticar enfermedades; clasificar y analizar cualquier tipo de imagen, fotografías, dibujos, logos, etc., en función de los requerimientos; procesar la voz humana para su reconocimiento. Alexa el asistente de Amazon es un buen ejemplo, también los softwares de transcripción automática; elaborar recomendaciones para la toma de decisiones por parte de los ejecutivos, empleados, militares, médicos, vendedores o cualquier otro profesional; realizar seguimiento y recolección de datos de las actividades de los usuarios de servicios para ofrecer recomendaciones personalizadas. Hoy, los algoritmos del aprendizaje profundo, o “deep learning”, son diferentes y más avanzados que los viejos del aprendizaje automático o “machine learnig”, son como las redes neuronales del cerebro humano que contiene millones de ellas interconectadas para aprender y procesar información, en este caso se trata de neuronas artificiales interconectadas dentro de la computadora, módulos de software llamados nodos, que mediante algoritmos de aprendizaje profundo procesan los datos, resuelven complicados problemas y en este proceso van aprendiendo y sumando conocimientos.
La lentitud de los legisladores, por cualquier causa, imposibilita la producción de normas legales que regulen las nuevas herramientas digitales que se inventan y se ponen al servicio del ser humano, es necesario establecer medidas de seguridad para las tecnologías existentes y emergentes.
Jorge Puigbó