Por Roxana González

Algoritmos que ayudan a encontrar el amor y que hasta te salvan la vida

 

En el mundo del conocimiento hay fórmulas para todo y la información es el verdadero elixir de esta era. Cómo se entrenan para hacer que nuestra vida sea más fácil y cada vez más predecible.

 

 

Roxana González | Periodista

 

Un algoritmo es una serie de instrucciones que permite llegar a un resultado. Se pueden usar para hacer cálculos, procesar datos y automatizar tareas, entre otras cuestiones. Dentro del ámbito del aprendizaje de las máquinas o el machine learning, los algoritmos se nutren de datos para aprender, sacar conclusiones y hacer predicciones.

De hecho, los algoritmos predictivos en la actualidad están presentes en casi todos lados. En un contexto donde progresivamente se recopila más información, e manera directa e indirecta, resulta cada vez más viable construir modelos para anticiparse a lo que vendrá.

 

¿Cómo aprenden las máquinas?

 

Existen diferentes modelos de aprendizaje. Y en todos ellos, los datos son estrella. Cada vez que, por ejemplo, presionamos “me gusta” en una publicación de una red social o indicamos que algo “no es interesante” le contamos al sistema un poco sobre nosotros y a partir de eso, el algoritmo va aprendiendo a clasificar la información.

El aprendizaje que realiza ese algoritmo puede ser supervisado o no supervisado. En el primer caso, se lo entrena a partir de preguntas, llamadas características y etiquetas, que son las respuestas. El algoritmo relaciona las características con las etiquetas y produce resultados.

En el caso del aprendizaje no supervisado, el sistema recibe las características pero no las etiquetas correspondientes. Así, el algoritmo debe agrupar según los patrones que identifique por su propia cuenta. Con este tipo de aprendizaje las máquinas adquieren cierta autonomía. Se puede decir que sacan sus propias conclusiones. Es un terreno que va avanzando y que también supone muchos desafíos.

 

Los usos

 

Los algoritmos pueden predecir cuáles son las publicidades que resultarán más atractivas para determinados usuarios, qué películas conviene recomendar, cuáles son las búsquedas que el usuario hará o incluso qué acciones podrían llegar a aumentar o reducir su precio. Pueden predecir los comportamientos. Al fin y al cabo parece ser que el mundo es bastante más predecible y organizado de lo que parece: hay patrones en prácticamente todos lados.

Pero más allá del uso que se le pueda dar dentro del marketing y las finanzas, existen otras tantas funciones que pueden tener estos algoritmos que facilitan y hasta pueden salvar vidas. Aquí, algunas de ellas.

 

Los algoritmos que te salvan la vida

 

En el ámbito de la salud también son muy utilizados. En enero del año pasado se supo que Google contribuyó a generar un sistema de redes neuronales que puede predecir el riesgo de muerte en pacientes internados.

Para generar este programa, se obtuvo información anónima (es decir no vinculada a personas en particular) de 216.221 adultos, a lo largo de 11 años en dos hospitales en Estados Unidos.

El sistema permite conocer con anticipación el posible desenlace fatal del paciente entre 24 y 48 horas antes de que suceda. Esto resulta fundamental para salvar a estas personas cuya vida está en riesgo.

También hay otros que predicen los riesgos de contraer enfermedades y hasta de cometer suicidio. De nuevo: los patrones están en la naturaleza y en los comportamientos humanos, solo hay que saber leer “la matrix”. Y para eso, están los algoritmos.

 

La fórmula para el amor

 

Las aplicaciones de citas se basan en la idea de que existen fórmulas para el amor. O al menos para lo que puede ser el comienzo de una relación amorosa. Existen aplicaciones como Tinder o Happn que filtran usuarios en función de los intereses que tienen en común, la edad o cualquier otro dato que se considere relevante. Uno le dice al sistema lo que le importa y el sistema muestra los candidatos en función de esos intereses.

Algunos tienen propuestas un poco más originales, como Hater, que vincula a los usuarios a partir de las cosas que odian. La idea detrás de esta app es que, para que surja el amor, es importante ponerse de acuerdo en aquellas cosas que resultan intolerables.

Por su parte, BlindLove, desarrollada por el argentino Federico Volinsky, apuesta a reivindicar “el amor verdadero” y para eso se asegura de que la gente charle entre sí pero sin ver sus fotos de perfil. A medida que se van conociendo, la imagen (que en un comienzo está borrosa) va cobrando nitidez.

De nuevo, aquí también opera un algoritmo que va dejando que se vea al otro en función de la cantidad de tiempo que se chatee y el tipo de interacciones que se haya tenido: ¿van a concertar una cita?, ¿se hablan con regularidad?.

 

Para la seguridad 

 

En el ámbito de la seguridad también se utilizan fórmulas. En China, por ejemplo, se emplea el reconocimiento facial para identificar sospechosos. La policía emplea gafas que escanea los rostros de las personas con las que se cruza y esos datos son contrastados con una base de datos de sospechosos. Y si se encuentra algún perfil que haya estado involucrado previamente en un delito se despiertan las alertas de las autoridades. El pasado, en este contexto, es una mochila difícil de sacarse de encima.

Es que una de las tantas tareas que realizan los algoritmos es la de analizar, contrastar y emitir una suerte de “veredicto”. Uno de los desafíos en el mundo de la información es lograr desarrollar modelos que puedan procesar grandes volúmenes de datos en poco tiempo. Claro que para esto no solo se necesita un buen algoritmo sino también buena conexión y hardware con gran capacidad de procesamiento.

También dentro del ámbito de la seguridad existe un programa llamado Cloud Walk que analiza movimientos y rasgos de “potenciales criminales”. Algo que, sin dudas, puede resultar polémico. Porque, después de todo ¿cuáles son los rasgos o movimientos que pueden denotar un posible accionar criminal?

 

Algoritmos con ética

 

 Esto nos lleva a otro punto que es la necesidad de generar algoritmos éticos. En el último tiempo se puso mucho el foco en esta cuestión. Detrás de los sistemas hay personas y hay que asegurarse de que esas personas sigan un protocolo para que produzcan y entrenen los programas de manera adecuada y amplia, teniendo en cuenta la diversidad y variedad que plantea la humanidad. Sobre todo si se aspira a habitar un mundo donde haya mayor inclusión.

A veces se puede caer en graves errores. Sobre todo cuando no se seleccionan los sets de datos con la suficiente amplitud para hacer un muestreo lo más fiel a la realidad posible o al objetivo que se quiera lograr. En 2015, por ejemplo, Google fue blanco de críticas cuando se supo que al ingresar en el buscador “gorila” se mostraban varias imágenes de personas de color.

Fue un error en el entrenamiento del algoritmo. La empresa pidió disculpas y corrigió el error. Algo similar ocurrió con Tay, un bot para Twitter que desarrolló Microsoft que terminó haciendo apología nazi. La inteligencia artificial se nutrió de las interacciones con usuarios nocivos y trolls en la red social y se convirtió en