La inteligencia artificial (IA) inyectará 15,7 billones de dólares a la economía mundial para el año 2030, según el informe PwC. Estamos de acuerdo de que es una tecnología que puede cambiar el mundo y su potencial es cada vez más evidente. Sin embargo, se enfrenta a desafíos significativos que tienen que ser superados antes de ver logrado su potencial. Los desafíos son una tarea de máxima prioridad para la industria de la tecnología en estos momentos.
Carencia de poder computacional
Empecemos con uno fácil, y que es probable que se resuelva con el tiempo. Dentro de la IA, el Machine Learning y el Deep Learning es probablemente lo más prometedor pero requieren un gran número de cálculos que deben hacerse lo más rápido posible. Esto significa que utilizan una gran cantidad de poder de procesamiento. No obstante existe una carencia de hardware y software para que ese poder de cálculo sea óptimo, lo que ha minado el avance de la IA.
A medida que los volúmenes de datos continúen creciendo, y el Deep Learning impulse la creación automatizada de algoritmos cada vez más complejos, el cuello de botella continuará alentando el progreso de la IA.
Es probable que la solución se encuentre en el desarrollo de la próxima generación de infraestructura informática, como la computación cuántica, que aprovecha los fenómenos subatómicos para llevar a cabo operaciones de datos mucho más rápidas que las computadoras de hoy en día. Esto llevará una década hasta que se reinvente la programación, pues los modelos de programación cuántica son muy diferentes a la programación que se usan en estos momentos.
Carencia de confianza
El problema de la falta de confianza recae en que IA es una caja negra, la gente no se siente cómoda cuando no entiende cómo se tomó la decisión.
Para citar un ejemplo práctico: los algoritmos utilizados por los bancos son principalmente matemáticas lineales y es bastante fácil explicar el camino de la entrada a la salida. Nos niegan la solicitud de hipoteca porque, no tenemos un trabajo, un aval, etc., esto es entendible. Sin embargo, con IA se hacen predicciones basadas en cosas que la gente no entiende y eso va a incomodar a más de uno. Lo que se convertirá incluso en manifestaciones y protestas sociales contra esos procedimientos.
La solución aquí es dejar que la gente vea que ésta tecnología funciona. Puede haber muchas oportunidades para mejorar las cosas al tener predicciones más precisas. Los humanos tendremos que entender y aceptar las recomendaciones hechas por IA, pero eso no significa bajar la guardia ante las máquinas, pues todavía podemos saber algo que ellas no.
Recordemos el caso de Facebook cuando suspendió su proyecto de IA en dos usuarios virtuales o chatbots, dichos usuario comenzaron a crear, entre ellos, un lenguaje propio e incomprensible para los desarrolladores. La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. Pero en lugar de interactuar con los usuarios finales, hablaban entre ellos en un idioma que nadie les había enseñado. Así que ahora los esfuerzos se centran en enseñarles las reglas del idioma inglés inter-chatbot.
Las legislaciones, que hasta ahora han fallado considerablemente para mantenerse al día con la velocidad del progreso tecnológico, es probable que jueguen un papel en esto. La creciente toma de conciencia de los consumidores sobre el aumento del número de decisiones tomadas por las máquinas, utilizando nuestros propios datos personales, ha llevado a los legisladores a abordar el problema desde nuestro punto de vista (del consumidor).
Un ejemplo es la General Data Protection Regulation (GDPR), que entrará en vigor en toda la Unión Europea en 2018 y afectará a cualquier persona que se ocupe de los datos privados de los ciudadanos de la Unión Europea, dondequiera que estén en el mundo. Por ejemplo, una parte de la reglamentación sugiere que los ciudadanos podrían tener derecho a tener una explicación para las decisiones que se toman sobre ellos por IA.
Bajo una interpretación muy estricta de la GDPR, podemos exigir que Netflix explique por qué nos recomendó esa película. Para Netflix esto es altamente confidencial y propietario.
Carencia de poder humano
Hasta hace poco tiempo la IA ha sido argumentada por escritores de ciencia ficción y desarrollada en las profundidades de los laboratorios universitarios de investigación de Tecnología de la Información. En otras palabras, no ha habido una salida al mercado para su uso masivo y por lo tanto ha recaudado poco dinero.
Esto significa que muy pocas organizaciones han estado dispuestas a invertir dinero en el desarrollo de IA, y que el tema no estaba lo suficientemente desarrollado en los programas educativos y de capacitación enfocados a la industria.
Con la nueva ola de interés sobre IA en estos últimos años, todo esto ha cambiado. Cada vez, son más frecuentes los cursos de ciencias computacionales que se centran en habilidades básicas para el desarrollo de IA. Pero todavía no hay suficientes personas que permitan a cada empresa u organización desarrollar su visión del mundo automatizado. Al igual que en otras áreas de la ciencia y la tecnología en las que hay una escasez de habilidades, simplemente no hay suficientes personas que sepan cómo operar máquinas que piensan y aprenden por sí mismos.
En el campo laboral deben actuar dos fuerzas que actúen, una es la aparición de lo que a menudo se describe como el Ciudadano Científico de Datos (Citizen Data Scientist). Es decir, profesionales, que aunque no estén formalmente formados o empleados como especialistas, desarrollan competencias prácticas a la hora de trabajar con datos y su análisis, generalmente para avanzar en su propio campo de especialización. Otra fuerza, es la provisión de plataformas y herramientas que permitan el trabajo basado en IA (como servicio). En lugar de tener que construir todo desde cero, las organizaciones pueden tomar soluciones ya hechas y simplemente conectar sus propios datos al servicio.
Mente única
Un desafío final que vale la pena considerar es que la gran mayoría de las implementaciones de IA en uso son altamente especializadas. La IA especializada, a menudo llamada IA aplicada, se crea para llevar a cabo una tarea específica y aprender a ser mejor en ella. Esto lo hace simulando lo que sucedería dando cada combinación de valores de entrada, y midiendo los resultados, hasta que se logre la salida más efectiva.
En cambio, la IA generalizada como la de los robots, capaces de echarnos una mano cualquier tarea como otro ser humano, seguirá siendo un sueño de ciencia ficción durante algún tiempo todavía.
Los organismos naturalmente inteligentes como los seres humanos son capaces de tomar en cuenta el aprendizaje y los datos de otras tareas distintas a las que estamos trabajando en el momento. Esta capacidad de recurrir a recursos distintos de los que son inmediatamente evidentes para abordar un problema, es conocida como el pensamiento fuera de la caja y es un elemento humano. La resolución y el ingenio de mente única en IA es muy poco probable de emular en el futuro cercano.
Lo que significa que la IA debe ser enseñada para asegurarse de que sus soluciones no causen otros problemas, más allá de su línea de acción. Esto incluye aprender a no pisar los pies de las otras IAs. Por ejemplo, en una ciudad inteligente, es fácil imaginar los efectos de un sistema IA en la gestión de la iluminación en conflicto con otra IA, como la regulación del uso de energía.
Estos cuatro desafíos clave que la IA tendrá que superar en un futuro próximo no son ciertamente insuperables. Pero las soluciones tendrán que ser implementadas antes de que la IA logre su enorme potencial. En el caso de la mayoría de los desafíos, generalmente aquellos que serán resueltos por el avance de la tecnología, el trabajo está bien encaminado. Otros, sin embargo, requerirán que las mentes humanas se unan y establezcan principios y códigos de conducta factibles, un proceso que podría tomar un poco más de tiempo.