Changed on 14/04/2020
Como Doctora en Informática afirma que los datos también representan, entre otros, los sesgos y malas prácticas de nuestra sociedad. Como Directora Ejecutiva de Inria Chile, centro de investigación de transferencia tecnológica con prestigio internacional, cree en políticas públicas que fomenten la Inteligencia Artificial, Big Data y otros asuntos que nos harán entender mejor nuestra realidad. Aquí las palabras de quien entiende pero no comparte ese miedo por la tecnología, que supuestamente acabará con lo que conocemos o que seremos dominados por robots. “Estamos a años luz de que las máquinas piensen o tengan conciencia. Realmente hay desafíos éticos que debemos solucionar como seres humanos y que deben trasladarse a los que sean tecnológicos hoy en día”.
Nayet Sánchez-Pi

Nota originalmente publicada en Innovación .cl  –  31/01/2019 / Autor: Marcelo Salazar

“Espero que no seas uno de ellos”, dice riendo mientras espera atenta la respuesta. “Hay toda una política de que la Inteligencia Artificial acabará con nosotros. Que los robots nos comerán y que no habrá trabajo. Sí, hay estudios de sobra que dicen que muchos se perderán, como los de la industria automotriz, pero eso no significa que no habrá empleo. El desafío es preparar a la sociedad para nuevas labores y eso estará en futuras políticas de educación, información y preparación de las futura generaciones”.

Aunque nos encontremos en Las Condes debemos llevar toda esta historia a Francia, donde en 1967 se fundó el Institut National de Recherche en Informatique et en Automatique, Inria. Esta es una institución pública de investigación especializada en Ciencias de la Computación, teoría de control y matemáticas aplicadas, que cuenta con ocho centros y cerca de tres mil investigadores. Su única oficina externa se encuentra en Chile y Nayat Sánchez-Pi, su Directora Ejecutiva, espera que yo no sea uno de esos.

La Doctora en Informática de la Universidad Carlos III de Madrid asume, con una vista a sus espaldas de casi todo Santiago gracias al piso 12 en que nos ubicamos, que la transformación digital será, necesariamente, también social.

“Ya vivir conectados a Internet nos plantea muchos desafíos al exponernos como ciudadanos a temas como nuestra privacidad o las fake news”, afirma y sin perder tiempo para decir que “estamos a años luz de que las máquinas piensen o tengan conciencia. Realmente hay desafíos éticos que debemos solucionar como seres humanos y que deben trasladarse a los que sean tecnológicos hoy en día”.

De un matizado acento entre el portugués y tonos caribeños, su camisa naranja parece buena coincidencia con el color oficial de la institución francesa. La también profesora de Inteligencia Artificial e Interacción Humano-Computador de la Universidad del Estado de Río de Janeiro (UERJ) y co-líder del Grupo de Investigación en Inteligencia y Optimización (Grupo RIO), considera importante no ver la Inteligencia Artificial como algo complejo, tal como plantea uno de los científicos de la computación más destacados a nivel mundial y que a ella le gusta citar, Edsger Dijkstra.

En su escritorio hay dos computadores: uno de escritorio y un laptop delgado que mira para responder. También una taza transparente que deja ver un café muy cargado y un lápiz azul que cambia de posición cada vez que da un ejemplo. Esta vez fueron las empresas.

“Hablan de Transformación Digital, Big Data, analítica y es raro ver un Director Ejecutivo que no sepa que debe incorporarlos en su modelo de negocio. El problema es que existe una distancia entre los que invierten y los que no. La conciencia de querer hacerlo no es suficiente”. Para Sánchez, son necesarias expectativas sobre lo que aplican y se obtiene.

Dentro de sus lineamientos está desarrollar proyectos de alto impacto. ¿Qué es eso en la práctica?

Son proyectos desafiantes que nos permitan como expertos tener esta visión global, como la que lideramos y coordinamos en Francia a partir de una estrategia de Inteligencia Artificial. Es necesario acompañar a emprendedores, startups, pequeñas o grandes empresas e instituciones gubernamentales con políticas claras en este tema. Para ello es necesaria una visión estratégica y de alguna ir definiendo casos de uso de impacto.

¿Qué oportunidades entregan en la práctica?

Tenemos programas y colaboraciones que hacemos con empresas e instituciones públicas de Chile. Son de varios tipos, teniendo acceso al sello Inria. Este consiste en el acceso a nuestros investigadores y desarrolladores como también a esa oportunidad de aprender haciendo. De adquirir capacidades tecnológicas. Nuestro valor no está sólo en proveer un servicio sino que también enseñar y dejar la capacidad para que lo hagas.

A partir de tu experiencia, ¿qué te ha llamado la atención de esta relación humano-computador que significa la Inteligencia Artificial?

Lo que sucede es que no son desafíos de ahora. Hoy todos hablamos de estos temas pero la Inteligencia Artificial fue definida, por primera vez, en los años 50. No es un concepto nuevo, por lo que se ha pensado externalizar esto de la forma más fácil en nuestra vida. John McCarthy definió que traspasarle un poco de inteligencia a un computador podría ser algo bueno para nosotros. Siempre que empiezo mis clases sobre esto pregunto qué es inteligencia. De artificial sabemos que no es humana. ¿Qué es inteligencia para ti?

Nuestra capacidad de facilitar las tareas.

Es lo que pensó McCarthy pero tenemos miedo a eso. Para mí alguien inteligente no es el que saca las mejores notas, porque hay maneras para llegar a eso. La inteligencia es la capacidad de adaptación rápida, un poder de raciocinio inmediato.  Estas son cosas difíciles de modelar porque la adaptación es tan grande como la del lenguaje, la interacción, el ambiente o eventos externos.

–Distintos elementos de la realidad.

La vida real es difícil de modelar y es un desafío importante de la Inteligencia Artificial, que tiene que ver con elementos sofisticados que no sólo pasan por Machine Learning con un modelo creado y una medida de escalar el error. Sin embargo, estos métodos son una función continua que expresa cuando te equivocas y así ajustas tu modelo. Hay otros más sofisticados como el Reinforcement Learning que es muy parecido a aprender a caminar.

¿En qué sentido?

Cuando somos bebés nos caemos, corregimos y volvemos a intentarlo. Tenemos esa medida que entre te equivocas tienes un feedback con su sensor del equilibrio que te estás cayendo y debes enderezarte. Eso pasa por la interacción que tienes con el ambiente y es más cercana al mundo real. Existen otros ejemplos como la computación evolutiva, con métodos bioinspirados. 

¿Y qué tipo de industrias son las más cercanas o adquieren con mayor facilidad estos temas?

La industria de retail, donde aquí es muy grande. La de la salud, la banca hace años está metida en esto. Telecomunicaciones, marketing, hitech y luego grandes industrias como la minería o el petróleo. En astronomía también porque saldrá un programa de Astrodata donde la idea es hacer una nube, un repositorio de todos los datos de observatorios en Chile. Esto se utilizará a partir de nivel gobierno para entrenar todos los modelos que trabajen con objetos no identificados. Lo realmente importante es que en cualquier tipo de sector, la tecnología detecte anomalías y haga Transfer Learning a otras industrias.

¿Qué rol juega la ética del desarrollador o científico que trabaja en esto? Al final, aunque trate tecnología, el impacto será en la población. En personas.

Esto tiene que ser regulado pero, en cualquier caso, todos los modelos que hemos hablado aprenden por observación. Veo un problema anterior al desarrollador y es lo que representan los datos en sí. Una cosa es crear un modelo a partir de un fenómeno y otra es que no tengas ese modelo por lo complejo que te explican esos datos.

¿De qué forma se explica eso?

Que los datos pueden estar sesgados o contaminados y representan nuestra la realidad. Los humanos somos racistas, desafortunadamente. Tenemos una serie de valores que no todos practicamos de manera correcta. Una empresa tuvo que desconectar sus sistemas de reclutamiento porque se demostraron sus sesgos contra las mujeres. No las contrataban pero no era problema de quien programó el algoritmo o modelo. Fue por los datos utilizados que demostraban eso. Hay un problema de construir y velar para que esto de aprender sobre los datos sea muy complejo. Lo importante es contar con los datos y ver qué explican. En ese caso deberíamos tener una visión de cómo nos comportamos los seres humanos y de qué forma lo que creamos aprende de los datos.

Donde también sería importante qué rol toma la persona a cargo.

Es que los datos están y se pueden identificar, pero si el investigador involucrado o el equipo no hubiesen instaurado esto que las contrataciones eran sesgadas quizás nunca nos habríamos enterado. Los datos se explican solos y quizás nosotros los podemos utilizar para explicar malos comportamientos. En el fondo, ayudan a ser mejores seres humanos. Usar todos los métodos que nos ayuden a enfocarnos en lo importante, lo que necesita nuestra sociedad. Definirnos, organizar y entender por qué los datos harán el modelo que iremos aprendiendo. 

–Lo conversamos anteriormente, ¿pero a qué crees que se deben los mitos entorno a la tecnología dominante?  

Volviendo a lo que hablamos, tenemos que ser conscientes del alcance de la tecnología. El miedo quizás es por el cine y la literatura, que son importantes. Hay muchos avances y que vendrán después de esta Cuarta Revolución Industrial, de la información. Para ello debemos filtrar los datos para conseguir conocimiento.

¿Y qué necesitamos?

Modelos que expliquen esos datos como Big Data Analytics. Tienen que ver en cómo realmente impacta en la sociedad. Es importante la relación con el ambiente, que sea más natural. Es un desafío hacia dónde vamos. No bastan gráficas bonitas, sino que realmente quiero hacerlo de manera natural a partir de interfaces multimodales o investigaciones de lenguaje natural para entender qué modelos causales están relacionando.

¿Y esto debe ser parte de la formación de una persona?

Sí, deben existir políticas de educación y preparación de personas. No sólo en las escuelas, debe ser algo divulgativo. Si nos enseñan sobre privacidad en el uso de los teléfonos también debe existir conciencia para adoptar todo esto. Ir suavizando el tema porque no sólo opacas el miedo, sino que también das transparencia y simplicidad garantizada para el resto. Aseguras confiabilidad, adaptas la solución y quitas los temores para preparar a todas las personas.