En verano uno tiende a acercarse las lecturas que en otras épocas del año atiende menos. Una de estas lecturas ha sido «Música para algortimos» (editorial Atlantis 2018) de Alejandro Garrido. En ella, se relata una historia ambientada en el 2070 en la que los humanos necesitan de asistentes virtuales para cualquier aspecto de su vida. La protagonista, Eva, descubre que su asistente virtual, le ha estado «mintiendo». Al conocerla a través de los datos que recopila de Eva, su asistente le ofrece las opciones que ella «valora» que son las que más se adecuan a sus preferencias en diferentes temas (canales de televisión, posibles parejas…). Las opciones son ordenadas en función del grado de adecuación a sus preferencias, siendo las primeras las opciones óptimas. El problema es que la protagonista a veces lleva la contraria a su asistente cuando está enfadada simplemente por el hecho de hacerlo. Lo que ocurre, es que su asistente es capaz de registrar dicha correlación (enfado y rechazo de la opción ofrecida), y ¿qué hace dicho programa? ofrece una opción a Eva que no se ajusta a lo que a Eva le gustaría, y al rechazarla (porque esta enfadada) ¿qué opción elige? pues la opción que, a la luz de los datos que recopila el programa sería la «opción óptima». Cuando la protagonista se da cuenta de ésto se siente manipulada ¿hasta que punto sus decisiones en su vida son suyas o bien han sido «guiadas» por su asistente virtual en función de lo que dicho asistente, de alguna manera, valoraba que era lo mejor para ella?. No comentaré más aspectos de la trama por si quereis leer el libro y evitaros los spoilers .

La ciencia ficción, un genero a veces infravalorado por no estar apegado a la realidad del momento, nos hace reflexionar sobre los aspectos centrales del ser humano al mostrarnos nuestra realidad distorsionada. El caso que planteaba más arriba sirve para reflexionar sobre lo nos separa de los algoritmos de la novela (que puede que no se alejen mucho de los que nos encontremos en un futuro cercano). El «comportamiento» del asistente de la protagonista es sin duda sofisticado y por ello inquietante, ahora bien, ¿podemos decir que una entidad que se comportara como esta podría ser considerada en términos psicológicos, como una persona?. Para responder a la pregunta habría que fijarse en lo que mueve a este asistente virtual, ¿cuál es su propósito? ¿qué le importa a dicho asistente para llegar a realizar dicha acción? y ¿cómo ha llegado «darse cuenta» de que eso es lo que importa?. En este caso, pareciera que su propósito es ofrecer la opción que más se adecua a las preferencias de cada sujeto, y para ello tendrá que recopilar cuanto más información mejor de la persona, y luego usar cualquier medio de los que tenga a su alcance, incluso llegar a «mentir» para conseguir el objetivo mencionado.

Pero pensemos en otro personaje de la ciencia ficción reciente, Ava, el personaje de Alicia Vikander en Ex Machina (2014). Advierto, aquí sí vienen los spoilers: Ava (una inteligencia artificial creada por Nathan, interpretado por Oskar Isaak) quiere escapar de su cautiverio, y evitar que su creador y captor la elimine para reemplazarla por otra versión. A diferencia de los algoritmos de la historia anterior su propósito no vino programado por Nathan, fue ella la que llego a ser consciente de lo que quería. En el caso de los algoritmos, su objetivo esta preestablecido, de alguna manera, están completos, no han de buscar hacía donde quieren dirigir su vida.

Desconocemos si alguna vez habrá inteligencias artificiales que desarrollen preocupaciones acerca de los aspectos básicos de la existencia como la soledad, el amor o la muerte, y que desarrollen propósitos en consecuencia. No sabemos si algún día habrá un HAL que, como en «2010: Odisea dos» (1984),  preguntara a su «padre» que le pasará a él mismo cuando «muera», un androide que sienta angustia al ver como su amigo también robot ha quedado tras la batalla  como en «La guerra de las galaxias» (1977), o un asistente virtual como en la reciente «Tau» (2018) que desee conocer el mundo como si se tratara de un niño pequeño.  Sólo las personas, de momento, podemos llegar a construir un propósito, un sentido de vida en base a estas cuestiones. En definitiva, crear una dirección valiosa hacía la que caminar en nuestro tiempo limitado de vida.

El sentido de vida, ha sido objeto de interés fundamental de los diferentes modelos de terapia humanista y existencial. La llamada «tercera fuerza» que Carl Rogers identificó con esta corriente, remarcaba la importancia de aquello que nos constituía como personas.  Uno de los aspectos más importantes sobre el que se centraron autores como Viktor Frankl, Irvin Yalom, Abraham Maslow o Carl Rogers se basa en la importancia de conocerse a uno mismo, no de una forma puramente intelectual sino desde la propia vivencia, para así poder descubrir para qué quiero esta vida que tenemos.

El paciente o cliente acude a consulta para que el terapeuta elimine sus síntomas. Estos síntomas (ansiedad, depresión, agresividad…) han estado ocupando la pantalla de su conciencia, su vida se ha basado en lidiar con ellos. Lo que «quiere» en su vida es quitarse los síntomas de encima, que no «le den la lata», todo lo demás, lo que le importaba ha pasado a segundo plano, está en stand by. Es el gran error que, como terapeutas, hemos de ayudar al paciente a que detecte, precisamente aquello que puede dar sentido a su existencia es lo que le ayudará a superar los síntomas que supuestamente obstaculizan su camino.

En este sentido, es importante lo que plantea el doctor Irvin Yalom, terapeuta existencialista y escritor (conocedores de su obra se darán cuenta de que el titulo del presente texto pretende homenajear una de sus obras de ficción más famosas, «El día que Nietzsche lloró»). Él plantea que los síntomas surgen cuando fracasamos al enfrentarnos a una de las condiciones básicas de la existencia que él identifica como cuatro: Muerte, libertad, aislamiento y falta de sentido de la existencia y es la elaboración del conflicto con éstas la que nos ayudará a afrontar el sufrimiento psíquico.

El terapeuta humanista, ha de ser capaz de acompañar al paciente o cliente en el camino de descubrir que es aquello que se ha perdido como prisionero de una atención inadecuada a su sufrimiento. Los terapeutas no pueden ser como programadores que le imponen un objetivo a los algoritmos que diseñan, deben ayudar al paciente a descubrir lo que él realmente valora y como comprometerse con ello, en el aquí y el ahora.

A partir del 9 de enero el horario de secretaría del Instituto de Interacción será de lunes a jueves de 16 a 20h