domingo, 13 de marzo de 2016

[feed] [cinematógrafo] preguntas que google no puede responder (todavía) / sobre Ex Machina



Ex Machina (Alex Garland, 2015)

En un futuro experimentado como presente, Nathan (programador genio millonario creador de algo así como Facebook y Google) da el siguiente paso en tecnologías de inteligencia artificial. Construye, en fin, un autómata del que se presume que procesa la información de una manera completamente autónoma. Caleb (Domhnall Gleeson, una especie de cruza entre Martin Freeman y Benedict Cumberbatch) es seleccionado como IQ. La pregunta que debe intentar responder es perfecta: ¿Ava (la IA) piensa o finge que piensa? Semejante pregunta es un inestable explosivo sintáctico en la estructura básica del pensamiento occidental moderno (el cartesiano, el que funda en la división entre sujeto de la enunciación y sujeto del enunciado, todo el sistema de pensamiento del que no podemos despegarnos). Pues ¿cuál es, exactamente, la diferencia entre pensar y fingir un pensamiento?

Ex Machina se desarrolla a partir de algunas de las mejores premisas que cabe esperar de una película sobre IA:

Nathan
You feel bad for Ava?
(Caleb no dice nada)
Nathan
Feel bad for yourself. One day, the AIs will look back on us the same way we look at fossil skeletons from the plains of Africa. An upright ape, living in dust, with crude language and tools. All set for extinction.

Nótese que no se trata de un desarrollo (un argumento, algo que suceda, un enfrentamiento) sino de una serie de premisas ya dadas (Nathan ya sabía todo, o casi todo, lo que valía la pena saber, antes de empezar la película). Lo mismo (y una curiosa lectura de Deleuze o de Badiou -la singularidad, el acontecimiento) se ve en el otro gran diálogo:

Caleb
Why did you make Ava?
Nathan
That’s an odd question. Wouldn’t you, if you could?
Caleb
Maybe. I don’t know. But I’m asking why you did it.
Nathan shrugs.
Nathan
The arrival of strong artificial intelligence has been inevitable for decades. The variable was when, not if. So I don’t really see her as a decision. Just an evolution. I think it’s the next model that’s going to be the real breakthrough. Singularity.


En fin, es muy agradable ver una secuencia en la cual las preguntas pelotudas son tratadas como preguntas pelotudas. Si la película se pregunta acerca del amor en la IA, no lo hace para otra cosa que para burlarse de semejante pregunta. 

Resta, finalmente, la legítima pregunta de mi amigo Pirrón. Según él, presuponer que una IA va a querer inmediatamente ser libre, es imprimir a priori una máquina hegeliana en el artefacto. Pero, supongamos por un momento que se tratara de una película nietzscheana ¿no podríamos presuponer que una IA inmediatamente desplegaría su voluntad de poder? Lo que quiero decir, más allá de un hipotético (mi) nietzscheanismo, es que es aún más difícil imaginar una cosmovisión tal que la IA no quisiera inmediatamente librearse, dominar. Luego podemos preguntarnos si quiere reproducirse o no, pero se me ocurre que sólo hay dos opciones para el primer momento. La acedia total (melancolía, fin del mundo, dejarse arrastrar, digamos, la IA-Bartleby) o la voluntad de poder (o el deseo, si es que queremos, por oscuros motivos, mantener vivo a hegel)

No hay comentarios: