Algunos de los ejemplos más conocidos de inteligencia artificial son Siri y Alexa, que escuchan el habla humana, reconocen las palabras, realizan búsquedas y traducen los resultados del texto de nuevo al habla. Pero estas y otras tecnologías de IA plantean problemas importantes como los derechos de privacidad personal y si las máquinas pueden tomar decisiones justas.
A medida que el Congreso considera si se deben hacer las leyes que gobiernan cómo funcionan los sistemas de AI en la sociedad, un comité del Congreso ha resaltado las preocupaciones sobre los tipos de algoritmos de AI que realizan tareas específicas, aunque complejas.
Las capacidades de estos dispositivos, a menudo denominadas » IA restringida «, son distintas de las máquinas hipotéticas de IA en general, cuyo comportamiento sería prácticamente indistinguible de la actividad humana , más como los robots R2-D2, BB-8 y C de Star Wars. 3PO. Otros ejemplos de IA estrecha incluyen AlphaGo , un programa de computadora que recientemente golpeó a un humano en el juego de Go , y un dispositivo médico llamado OsteoDetect , que utiliza la IA para ayudar a los médicos a identificar fracturas de muñeca.
Como profesor y asesor de estudiantes que investigan la regulación de las tecnologías emergentes , considero que el informe del Congreso es un signo positivo de cómo los formuladores de políticas de EE. UU. Se están acercando a los desafíos únicos que plantean las tecnologías de inteligencia artificial. Antes de intentar elaborar reglamentos, los funcionarios y el público deben comprender mejor los efectos de AI en los individuos y en la sociedad en general.
Preocupaciones planteadas por la tecnología AI
Sobre la base de la información recopilada en una serie de audiencias sobre AI que se llevaron a cabo a lo largo de 2018, el informe destaca el hecho de que Estados Unidos no es un líder mundial en el desarrollo de AI. Esto ha sucedido como parte de una tendencia más amplia. La financiación para la investigación científica ha disminuido desde principios de la década de 2000. En contraste, países como China y Rusia han aumentado su gasto en el desarrollo de tecnologías de IA.
Como lo demuestran las preocupaciones recientes en torno a la interferencia de Rusia en las elecciones estadounidenses y europeas , el desarrollo de tecnologías cada vez más complejas genera inquietudes sobre la seguridad y la privacidad de los ciudadanos estadounidenses. Los sistemas de AI ahora se pueden utilizar para acceder a información personal, hacer que los sistemas de vigilancia sean más eficientes y aviones no tripulados . En general, esto brinda a las empresas y gobiernos herramientas nuevas y más completas para monitorear y potencialmente espiar a los usuarios.
A pesar de que el desarrollo de la inteligencia artificial está en sus primeras etapas, los algoritmos ya se pueden usar fácilmente para engañar a los lectores, a los usuarios de las redes sociales o incluso al público en general. Por ejemplo, los algoritmos han sido programados para dirigir mensajes específicos a audiencias receptivas o generar falsificaciones profundas , videos que parecen presentar a una persona, incluso a un político, diciendo o haciendo algo que en realidad nunca hicieron.
Por supuesto, como muchas otras tecnologías, el mismo programa de inteligencia artificial puede usarse con fines benéficos y beneficiosos. Por ejemplo, LipNet , un programa de lectura de labios de IA creado en la Universidad de Oxford, tiene un índice de precisión del 93.4 por ciento . Eso va mucho más allá de los mejores lectores de labios humanos, que tienen un índice de precisión entre 20 y 60 por ciento. Esta es una gran noticia para las personas con discapacidades auditivas y del habla. Al mismo tiempo, el programa también podría utilizarse para fines de vigilancia general, o incluso para monitorear individuos específicos.
La tecnología AI puede ser parcializada, al igual que los humanos
Algunos usos para la IA pueden ser menos obvios, incluso para las personas que usan la tecnología. Últimamente, las personas se han percatado de riesgos en los datos que impulsan los programas de IA. Esto tiene el potencial de chocar con las percepciones generalizadas de que una computadora utilizará los datos de manera imparcial para tomar decisiones objetivas. En realidad, los algoritmos creados por el hombre utilizarán datos imperfectos para tomar decisiones que reflejen el sesgo humano . Lo más importante es que la decisión de la computadora puede presentarse como, o incluso creerse, más justa que una decisión tomada por un ser humano, cuando en realidad lo contrario puede ser cierto .
Por ejemplo, algunos tribunales usan un programa llamado COMPAS para decidir si liberar a los acusados criminales bajo fianza. Sin embargo, hay evidencia de que el programa está discriminando a los acusados negros , calificándolos incorrectamente como más propensos a cometer delitos futuros que los acusados blancos. Las tecnologías predictivas como esta se están generalizando cada vez más. Los bancos los usan para determinar quién obtiene un préstamo. El análisis informático de los datos policiales pretende predecir dónde ocurrirá la actividad delictiva. En muchos casos, estos programas solo refuerzan el sesgo existente en lugar de eliminarlo.
¿Que sigue?
A medida que los responsables de la formulación de políticas comiencen a abordar el importante potencial, para bien y para mal, de la inteligencia artificial, tendrán que tener cuidado para evitar sofocar la innovación . En mi opinión, el informe del Congreso está tomando los pasos correctos en este sentido. Requiere una mayor inversión en inteligencia artificial y la disponibilidad de fondos para más agencias, desde la NASA hasta los Institutos Nacionales de la Salud. También advierte a los legisladores que no participen demasiado pronto, creando demasiados obstáculos regulatorios para las tecnologías que aún se están desarrollando.
Sin embargo, lo más importante es que creo que la gente debería comenzar a mirar más allá de las métricas, lo que sugiere que los programas de AI son funcionales, ahorran tiempo y son potentes. El público debería iniciar conversaciones más amplias sobre cómo eliminar o disminuir el sesgo de datos a medida que la tecnología avanza. Si nada más, los adoptantes de la tecnología algorítmica deben ser conscientes de las trampas de la IA. Los tecnólogos pueden ser incapaces de desarrollar algoritmos que sean justos en formas mensurables, pero las personas pueden llegar a ser más inteligentes sobre cómo funcionan, en qué son buenos y en qué no.