domingo, 28 de agosto de 2022

Pilar Manchón, una experta en IA en un mundo de hombres


Pilar Manchón, una experta en IA en un mundo de hombres


"«No solo importa el problema que resuelves, sino cómo lo haces. No todo vale. Y las humanidades te dan perspectiva»

Con motivo de nuestro 35 aniversario y en colaboración con la Fundación BBVA, hablamos esta semana con la directora de Estrategia de Investigación en Inteligencia Artificial de Google Research y una de las mayores expertas en asistentes virtuales, Pilar Manchón. Por si el cargo no fuese mérito suficiente, Manchón lo ha logrado siendo mujer en un mundo mayoritariamente de hombres y sin ser ingeniera; estudió filología inglesa. Hablamos con ella. POR CARLOS MANUEL SÁNCHEZ | FOTO: KAREN GAJATE SCHOORMANS

No te resignes a arrastrarte si tienes el impulso de volar». Pilar Manchón (Sevilla, 1972) cita esta frase de Helen Keller para referirse a su propia y sorprendente trayectoria, que la ha llevado a lo más alto en Silicon Valley a pesar de que no tiene formación de ingeniera, pues estudió Filología Inglesa. Manchón es la directora de Estrategia de Investigación en Inteligencia Artificial de Google Research. Llegó a California en 2013 después de que la multinacional Intel comprase la empresa que fundó cuando estaba en la universidad, Indisys, dedicada al desarrollo de asistentes virtuales, por 26 millones de dólares. Antes de liderar el desarrollo de sistemas conversacionales en Google desempeñó puestos ejecutivos en Intel, Amazon y Roku.

XLSemanal. ¿Qué hace una filóloga como usted en un sitio como Silicon Valley?

Pilar Manchón. La Filología fue el principio de todo. Luego hice un máster en Ciencia Cognitiva y el doctorado en Lingüística Computacional. Así que soy más bien un híbrido. Esta combinación de las humanidades y las ciencias me ha dado una ventaja. Es muy importante que la formación sea mucho más interdisciplinar.

XL. ¿Para qué?

P.M. Para que los ingenieros entiendan al ser humano un poquito más y para que los humanistas comprendan la tecnología. Eso nos ayudará a desarrollar una inteligencia artificial más responsable.

XL. ¿Los ingenieros son esos tipos que resuelven problemas, pero que necesitan a alguien que les diga cuál es el problema?

P.M. [Ríe]. No solo importa qué problema resuelves, sino cómo lo resuelves. No todas las soluciones son correctas. Y no vale todo. Personas con formación en ética, psicología, filosofía... te dan una perspectiva más amplia.

XL. El avance en los asistentes conversacionales es asombroso... Antes, te recomendaban un restaurante y poco más. Ahora, ya hablan de todo como si fueran expertos.

P.M. La revolución llegó en 2017 con los primeros transformadores basados en redes neuronales. El último modelo conversacional de Google se basa en 540.000 millones de parámetros. No solo te cuenta un chiste, también te explica, si hace falta, dónde está la gracia [ríe].

XL. A muchos les preocupa que estos sistemas se nos vayan de las manos.

P.M. Y lo entiendo. Google aplica unos principios éticos a la inteligencia artificial desde 2018, como que no se utilice en armas, evite sesgos, sea segura… Hemos creado equipos internos que se dedican a predecir las líneas rojas que nos podamos encontrar. Pero no todo el mundo es tan responsable y es necesario que se regule a nivel de gobiernos.

XL. Recuerdo una época en la que las grandes tecnológicas contrataban a filósofos. Y alguno se quejaba de que no se les hacía ni caso.

P.M. No creo que los ingenieros quieran ignorar a los filósofos. Lo que pasa es que hablan idiomas distintos. Por eso es tan importante crear puentes. Y eso es parte de lo que estoy intentando hacer aquí. Pero va a llevar tiempo.

XL. Hace poco conversé con una versión avanzada de uno de estos sistemas y, francamente, a la máquina se le iba un poco 'la pinza', incluso sus respuestas tenían un giro siniestro…

P.M. Estos modelos, a veces, sufren alucinaciones. Hay una razón muy poderosa por la que Google no ha abierto públicamente algunos de ellos. Y es que intentamos tener un control del tipo de cosas que pueden no ir bien.

XL. ¿Le sorprenden estos comportamientos?

P.M. No. Tenga en cuenta que los miles de millones de datos de los que se alimentan están sacados de muchísimas fuentes; prácticamente de todo lo que esté publicado en Internet. Lo que hacen estos modelos es generar posibilidades que en una conversación entre dos humanos serían plausibles. Lo que pasa es que hemos ido de unas tecnologías muy rígidas sobre las que teníamos control absoluto, pero la parte conversacional era muy limitada, a una bastante flexible, pero en la que no puedes predecir por dónde te va a salir…

XL. A veces, parecen humanos.

P.M. El antropomorfismo es cosa nuestra. Y cuando una máquina utiliza lenguaje natural es más acusado. Nuestros cerebros se crean expectativas. Si conoces a una persona nueva, no le preguntas cuánto son 2 + 2 para evaluar su capacidad matemática. Sin embargo, cuando te presentan a un asistente virtual, lo pones a prueba diciéndole que se case contigo, que haga operaciones matemáticas… Intentas comprobar cómo de inteligente es. Pero no creo que sea un problema.

XL. ¿Seguro?

P.M. Es algo que hay que gestionar con educación y transparencia. Hay que hacer saber a los usuarios que hablan con una inteligencia artificial. Cuanto más se eduque a la población para que entienda cómo funcionan estas cosas, mejor, aunque se pierda un poco la magia.

XL. Ya, pero no va a ser fácil educar a la población si los propios expertos dudan. Google ha despedido a un ingeniero que dice que habló con una inteligencia artificial que tenía conciencia…

P.M. Un ingeniero tiene una formación muy sólida en cosas técnicas, pero que sea más o menos influenciable depende de su formación humanística. Cuando hablamos de conciencia, estamos hablando de siglos de reflexión e investigación por parte de filósofos y ahora también de neurocientíficos. Un ingeniero no puede ser un experto en todo.

XL. Resumiendo, ¿de momento la inteligencia artificial ni siente ni padece?

P.M. Es que son modelos puramente matemáticos. No podemos hablar de conciencia, no tiene sentido. Si lo tuviera, saldría a la luz de una manera mucho más oficial. Pero no estamos a ese nivel.

XL. ¿Podemos llegar a estarlo?

P.M. Todo es posible. Lo único que podemos predecir es que la inteligencia artificial seguirá avanzando hasta alcanzar niveles muy superiores a los actuales.

XL. ¿Y nos va a enviar al paro a los que trabajamos con palabras: escritores, periodistas, guionistas…?

P.M. Antes, la tecnología se centraba en tareas más físicas y ahora se abre a tareas intelectuales. Pero lo que se vislumbra es que estas herramientas permitirán a los humanos hacer más cosas y más rápido, no sustituirlos.

XL. ¿Mudarse a Silicon Valley le supuso un choque cultural?

P.M. Silicon Valley atrae a gente de todo el mundo, con formación y experiencias muy distintas. Nada más llegar, conocí a una compañera de un país asiático que me contaba que venía de un matrimonio arreglado. Para mí era inimaginable que alguien tan cualificado conociese a su marido el día de su boda. Pero te acostumbras a no juzgar.

XL. ¿Y cómo lleva lo de tener a la familia tan lejos?

P.M. Mi familia me da fuerzas en muchos sentidos, aunque no la tenga cerca. Aquí hay muchos cuyos padres son eminencias. Pero mi padre era taxista. Fue pastor de niño. Yo fui la primera que hizo una carrera. Tengo una hermana, Beatriz, que ha sido la mejor piragüista española de todos los tiempos. Hay que ver mundo, mezclarse."
 
 
Puede ubicar información sobre Pilar Manchón

No hay comentarios:

Publicar un comentario