Mostrando entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA. Mostrar todas las entradas

lunes, 25 de noviembre de 2019

El futuro de la IA: así afectará un algoritmo a tu educación, salud o privacidad 25112019



El futuro de la IA: así afectará un algoritmo a tu educación, salud o privacidad

Investigadores españoles obtienen una ecuación matemática que permite predecir el comportamiento de redes complejas a tiempo real
La inteligencia artificial (IA) está cada vez más presente en muchos aspectos de nuestra vida, aunque normalmente la asociamos a dos extremos: el ocio (el altavoz que nos pide comida o la plataforma de series que nos sugiere una nueva en función de nuestras preferencias) o los peligros de la privacidad (la aplicación que evalúa nuestros gustos y nos muestra publicidad acorde).
Sin embargo, lo cierto es que la IA va conquistando terreno a pasos agigantados y ganando presencia en otros sectores habitualmente no acostumbrados a este tipo de tecnología. ¿Hasta qué punto acabará incidiendo de verdad en nuestro día a día?
Esa es precisamente la pregunta que busca responder Future Trends Forum (FTF), el 'think tank' multidisciplinar e internacional de la Fundación Innovación Bankinter, que cada año analiza las posibilidades y el futuro de una tendencia innovadora con la ayuda de cerca de 500 expertos de todo el mundo. En su trigésimo segunda edición, el FTF se lanza una pregunta: ¿cómo será la IA en el año 2030? Para responderla se ha analizado tanto su desarrollo tecnológico como las capacidades e impactos que tendrá en nuestra vida en los próximos diez años.
1.- Educación
El sector educativo quizá haya sido tradicionalmente uno de los más reacios a los cambios, quizá por lo complejo del sistema. En cualquier caso, los expertos del FTF consideran que, dentro de diez años, la inteligencia artificial estará metida de lleno en la educación.
Esto significa que en vez de adaptar a los alumnos a un currículo predeterminado e idéntico para todos, habrá caminos distintos. Los sistemas educativos contarán con algoritmos de IA que analizarán tanto el desempeño de los alumnos en unas disciplinas u otras (letras, ciencias, tecnología, arte...) como las habilidades que muestran en el aula. Una vez hecho el diagnóstico, cada alumno tendrá hojas de ruta distintas en función de lo que se considere que se le va a dar mejor.
2.- Salud
La IA lleva años 'coqueteando' con la salud, sobre todo a través de los relojes inteligentes que utilizan muchas personas para medir sus pulsaciones y demás constantes vitales. La predicción del informe apunta que estos algoritmos jugarán un papel esencial a la hora de hacer más efectivo el sistema sanitario.
Lo harán a través de dispositivos que midan determinados parámetros en los pacientes, pero no solo con eso. Además, la inteligencia artificial será capaz de cruzar datos y síntomas para prever escenarios futuros, posibles afecciones o enfermedades, así como su tratamiento. En este sentido, serán una ayuda para los médicos, que podrán destinar más tiempo (y más dedicación) a cada uno de sus pacientes.
3.- Privacidad y seguridad ciudadana
Los datos son, sin duda, el petróleo del siglo XXI. En este sentido, no son pocos los que consideran un peligro la circulación de datos que, bien cruzados y analizados, pueden suponer un serio trastorno para la privacidad de los usuarios. En este sentido, la IA tiene muchas posibilidades, pero también muchos retos.
Entre las oportunidades se encuentra la opción de procesar cantidades ingentes de datos para tomar mejores decisiones en áreas como la salud pública, la inclusión financiera, el cambio climático o la ayuda en emergencias ante, por ejemplo, desastres naturales. Por otra parte, hay un reto esencial, que pasa por que los algoritmos sean FATEN:
  • F, de 'fairness' (justicia): que atienda a la no discriminación y a la cooperación.
  • A, de 'autonomy', 'accountability' y 'augmented' (autonomía, rendición de cuentas y aumento): preservando el valor humano y de los modelos que aumenten (y no reemplacen) a la inteligencia humana.
  • T, de 'trust' y de 'transparency' (confianza y transparencia): que los algoritmos no despierten recelos ni sospechas, así como que sean debidamente auditados.
  • E, de 'education' y 'beneficence' (educación y beneficencia): que su uso siempre sea bienintencionado y con el objetivo de que la ciudadanía reciba una mejor educación de todo tipo.
  • N, de 'non-maleficence': minimizando los aspectos negativos y preservando la privacidad de las personas.
Además, hace años que la inteligencia artificial está siendo usada por grupos de ciberdelincuentes para lanzar todo tipo de ataques informáticos. Por ello, otro de los objetivos a conseguir es que la circulación de datos sea totalmente segura y no corra el riesgo de caer en manos ajenas.
 5.- Entorno empresarial
Las empresas siempre buscan ser gestionadas con la mayor objetividad posible, pero no nos engañemos: todos los seres humanos tenemos sesgos de uno u otro tipo que acaban afectando a nuestras decisiones. El reto de la inteligencia artificial aquí, por tanto, es la de aportar un plus de objetividad muy difícil de encontrar en un cerebro humano.
Imaginemos, por ejemplo, que una gran empresa está diversificando su actividad y duda entre lanzar varios modelos de negocio distintos. Más allá del instinto de sus directivos, los algoritmos basados en IA podrán analizar la situación actual del sector al que quieren dirigirse, el escenario futuro, la evolución de la competencia, etc. La IA también puede servir para analizar la evolución de los márgenes financieros, el desempeño de los empleados... En definitiva puede ayudar a tomar más y mejores decisiones.
6.- Administración Pública
La Administración Pública también tiene un reto tecnológico que se prevé muy importante, según los expertos, en términos de ganar eficiencia y de aspirar a ofrecer mejores servicios a los ciudadanos. Es algo que ya estamos viendo, por ejemplo, en las 'smart cities'. Si un ayuntamiento automatiza el control de la congestión del tráfico, las necesidades de agua en ciertos espacios o los pasos por ciertas zonas de alumbrado público, la inteligencia artificial le dirá exactamente en qué áreas dedicar más esfuerzos y de qué manera hacerlo.
¿Cómo adaptarnos al nuevo mundo?
La transición hacia un contexto en que la inteligencia artificial toma muchas de nuestras decisiones no es sencilla, qué duda cabe. En aras de irnos adaptando al escenario futuro, los expertos del Future Trends Forum consideran imprescindibles varias acciones.
Colaboración entre personas y máquinas
No se trata de enfrentar al humano y a la máquina, sino de que el primero pueda seguir trabajando gracias a la ayuda de la segunda. Por ello, el humano debe estar siempre en el centro y ser la prioridad. Cualquier actividad tecnológica deberá pasar antes un filtro en el que los expertos se aseguren de que no va a causar perjuicios, sino justo lo contrario.
Prevención y solución de riesgos
Decíamos antes que los seres humanos tenemos sesgos, pero sería iluso pensar que la Inteligencia Artificial, en tanto que es desarrollada por humanos, carece de ellos. Por eso es esencial afrontar esos sesgos, rendir cuentas sobre ellos, instaurar políticas de privacidad comprensibles, educar a la ciudadanía en el conocimiento de la IA, velar por el cumplimiento de los derechos digitales y, en definitiva, potenciar el desarrollo de la inteligencia artificial para el bien social.
Gestión de procesos públicos y privados
Las administraciones públicas y privadas que apliquen IA a su toma de decisiones verán cómo la cadena de mando no cambia necesariamente, pero sí incluye nuevos factores. En cualquier caso, siempre deben tener en cuenta que estos cambios tienen como objetivo llevar a cabo una gestión más eficiente de unos recursos cada vez más limitados.

jueves, 8 de marzo de 2018

Inteligencia artificial, ¿bendición o maldición? Llamamiento contra las amenazas a la seguridad 08032018

Inteligencia artificial, ¿bendición o maldición? Llamamiento contra las amenazas a la seguridad

Los expertos en la materia advierten que la inteligencia artificial (IA) podría caer en manos de estados preocupantes, terroristas y delincuentes a no ser que la humanidad prepare una defensa contra posibles usos malintencionados.
Los miedos que despierta la inteligencia de las máquinas se han retratado en la ciencia ficción desde hace decenios en innumerables descripciones del poder de autodestrucción que tienen los humanos. No obstante, la aparición de la IA ha dado paso a discursos enfrentados en la esfera pública que aluden tanto a amenazas como a promesas, en función del punto de vista de cada uno.
Si bien existen como concepto desde la década de 1950, las tecnologías de IA y aprendizaje automático han despegado hace poco. Gracias a un desarrollo rápido, ahora se emplean en múltiples aplicaciones, como el reconocimiento automático del habla, la traducción automática, los buscadores, los asistentes digitales, los drones y los vehículos sin conductor.
El empleo de este tipo de sistemas en aplicaciones revolucionarias en ámbitos como la sanidad, la agricultura, la educación y el transporte se contempla como beneficioso y podría mejorar la vida de la gente y ofrecer cambios positivos para la sociedad. Por ejemplo, la IA ya desempeña una función importante en la obtención, el procesamiento y la interpretación de imágenes médicas. Aun así, cada vez más expertos, entre los que se incluyen el físico Stephen Hawking y el empresario Elon Musk, hacen hincapié en la necesidad de prepararse para (y evitar) los riesgos potenciales que podría generar la IA.
En un informe nuevo titulado The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, investigadores de varias universidades, grupos de presión y organizaciones sin ánimo de lucro expresaron preocupaciones similares. En él se ponen de manifiesto las posibles amenazas de la IA para la seguridad si cae en malas manos, y acotan tres ámbitos principales, el digital, el físico y el político. En el documento se sugiere que la IA podría capacitar a actores malignos para ejecutar ataques a gran escala de enorme precisión y eficiencia.
Shahar Avin, del Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge(CSER), informó a la BBC que el informe se dedicaba a ámbitos de la IA disponibles ahora o que podrían materializarse en el próximo lustro, en lugar de estudiar un futuro lejano.
En relación a la IA como una tecnología de "uso doble" con aplicaciones posibles en los ámbitos militar y civil, "con fines beneficiosos y perjudiciales", el informe indica lo siguiente: "Según aumenten la potencia y la popularidad de las capacidades de la IA, se apreciará un mayor uso de los sistemas de IA que den lugar a la ampliación de las amenazas existentes, la introducción de amenazas nuevas y un cambio en la naturaleza típica de las amenazas".
En un comunicado público, el Dr. Seán Ó hÉigeartaigh, director ejecutivo de CSER y uno de los autores del documento, declaró:
"Vivimos en un mundo que podría plagarse de amenazas continuas debidas al uso indebido de la IA y es necesario que abordemos los problemas dado que los riesgos son muy reales. Hay decisiones que debemos tomar ahora, y nuestro informe es un llamamiento a actuar para administraciones, instituciones y particulares de todo el planeta".
Los autores prevén ciberataques novedosos como hackeos automatizados, síntesis de voz para suplantar personas, correos electrónicos basura con objetivos perfectamente definidos que se valgan de información extraída de medios de comunicación sociales y el aprovechamiento de las vulnerabilidades de los propios sistemas de IA, por ejemplo mediante ejemplos contradictorios e intoxicación de datos. En el informe también se señaló la posibilidad de desplegar drones y sistemas ciberfísicos para que realicen actos maliciosos como estrellar vehículos autónomos en masa o armar enjambres de drones para matar a personas concretas en un grupo de gente mediante tecnología de reconocimiento facial. Los vídeos falseados que manipulan a la opinión pública o el empleo de plataformas de vigilancia automática para eliminar discrepancias en estados autoritarios son algunos de los problemas que el informe plantea para la seguridad política.
Si bien el informe alerta de las amenazas inminentes de la IA, no ofrece medidas específicas de prevención contra el mal uso de estas tecnologías. También se menciona la existencia de múltiples desacuerdos entre los propios coautores y otros expertos en este campo. "Realizamos un análisis pero no ofrecemos ninguna respuesta concluyente a cuál será el equilibrio a largo plazo entre los partidarios y los detractores. Nos dedicamos a analizar el tipo de ataques que es probable que veamos recientemente si no se ponen en marcha las defensas necesarias", concluyen los autores.