efectos colaterales en sistemas de recomendacion

Efectos colaterales en sistemas de recomendación

efectos colaterales en sistemas de recomendacion

Buenas! Como andan? Yo de nuevo por acá, retomando el podcast. Semana número 28 de este año 2019. Ya cruzamos el ecuador del año, y hoy les quiero hablar de dos conceptos relacionados con los algoritmos de recomendaciones.

Los conceptos son cámara de eco y filtro burbuja, y me surgió la idea de hablar de estos temas leyendo un paper de DeepMind sobre la degeneración de los sistemas de recomendación.

Hoy tal vez voy a ser un poco crítico y voy a hablar de estos temas que tal vez son unos aspectos negativos o efectos colaterales en la práctica de machine learning, pero creo que es algo interesante de saber y de reflexionar, y me gustaría también ver que opinan uds.

Espero que les guste el tema y les parezca de interés, y si es así que se suscriban al podcast en Spotify, iVoox o la aplicación de podcast que mas les guste.

Sistemas de recomendación basados en aprendizaje automático

Como muchos sabemos, uno de los usos que más se le está dando hoy en día al Machine Learning, es para hacer sistemas de recomendación. 

Hoy están en todas partes, en Netflix para recomendarnos películas y series, en Youtube para recomendarnos videos, en Redes Sociales para mostrarnos posteos que nos pueden interesar, y si seguimos así vamos a darnos cuenta que están en muchos muchos lugares.

El primer concepto del que quiero hablar se llama cámara de eco, y para entender de qué se trata lo más fácil es imaginarnos que estamos solos en una caverna y cualquier cosa que digamos se va a ir repitiendo por el eco de nuestra voz rebotando en las paredes, lo cual dará la sensación de escuchar muchas veces lo mismo.

Este mismo efecto es uno de los que se conoce que se dan en los medios de comunicación como diarios o canales de televisión, que por lo general tienen una línea de pensamiento y suelen ver y comunicar el mundo con una determinada visión.

Y por esto, es que está bueno tener un pensamiento crítico y además consumir información de diferentes medios para armar nuestra propia visión de la realidad.

Bien, este mismo efecto se produce en las redes sociales cuando usan sistemas de recomendación para mostrarnos “contenido que nos puede interesar”.

Cámara de eco en redes sociales

Esto es lo que pasa en Facebook o Instagram, por ejemplo, donde no vemos los posteos de forma cronológica, sino que los vemos en un orden armado por un sistema de recomendación, que en base a nuestro comportamiento pasado intenta predecir qué nuevos posteos podrán gustarnos más.

Esto no fue así desde un principio en las redes sociales, sino que fue una característica que se agregó tiempo después con el objetivo de que veamos cosas que nos gustan y conseguir que pasemos más tiempo en sus plataformas.

Y eso lo hacen ya que al ser gratuitas, ellos ganan dinero mostrándonos publicidades segmentadas y cuanto más tiempo estemos en su plataforma más dinero ganan. Simple.

Como escuché el otro día decir a Santiago Bilinkis, somos su materia prima, sin materia prima, no tienen negocio.

Pero bueno, más allá de la queja, también tienen sus cosas buenas y podemos ver fotos de gatitos y de los asados de tu primo y eso está genial.

Volviendo al tema de la cámara de eco, lo que pasa acá es que el sistema se va a basar en las cosas que nos gustan y nos va a seguir mostrando posteos y noticias que tengan la misma línea de lo que nosotros indicamos que nos gustó en el pasado y es ahí donde se arma este efecto de eco.

Y acá es donde entran en juego por ejemplo las fakes news que se cuelan en las redes sociales y aprovechando nuestro sesgo y la cámara de eco ayudan a reafirmar nuestras creencias. Pensando que todos piensan igual que nosotros.

Esto muy común en temas de política y más en años electorales por ejemplo, y muchas personas comparten artículos o noticias que están en línea con su pensamiento sin chequear que sean verdaderas y terminan siendo falsas.

Lo peor es que aunque después se enteran que era falsa no les interesa porque si la noticia decia que tal politico habia robado y era un corrupto, la persona dice “bueno, no importa que esa vez no haya sido cierta, pero pirulito es un corrupto igual y porque robó mil veces”.

Así que esto es lo que hace que veamos mucho los posteos de determinadas personas por sobre los de otras y que veamos más las noticias de determinados temas por sobre otros. Y esto favorece las famosas grietas o también llamada polarización de la sociedad.

El problema de la burbuja de filtro

El otro tema del que quiero hablar es el filtro burbuja, es un concepto que introdujo Eli Pariser en una charla TED en el 2011, y se refiere a cuando hacemos una búsqueda en Google por ejemplo, y los resultados que se nos muestran de esa búsqueda son totalmente diferentes y personalizados para cada persona. 

Por más que busquemos exactamente lo mismo y en el mismo momento, no van a ser los mismos resultados los que se te muestren a vos que los que se me muestren a mi.

Esto lo que provoca es que nosotros no tengamos ningún poder sobre lo que vemos y lo que dejamos de ver. No sabemos qué es lo que no se nos está mostrando y lo que nos estamos perdiendo.

Esto por un lado está bien, porque no podríamos gestionar los millones de resultados que tiene una búsqueda en Google, pero por otro lado podría estar afirmando nuestros sesgos y ocultandonos nuevas ideas, distintos puntos de vista, los cuales nos enriquecerán y harán funcionar mejor nuestro pensamiento crítico.

Y bueno de esto es lo que habla la gente de DeepMind en el paper que estuve leyendo en el que explican las pruebas que estuvieron haciendo y como esta degeneración se hace más lenta o más acelerada dependiendo el algoritmo de recomendación que usen y el grado de precisión que se busque en las recomendaciones.

Cuanto más preciso sea el algoritmo, más se acelera la degeneración de las recomendaciones.

Posibles mejoras a los algoritmos de recomendación

Por lo tanto, una de las posibles soluciones que se proponen es que no se busque tanto la precisión de los algoritmos de recomendación, y seleccionar alguna recomendación aleatoria de vez en cuando y aumentar la cantidad de fuentes desde donde se toman las recomendaciones.

Esto hará que aunque se pueda mostrar contenido que tal vez no sea de interés del usuario, se amplíe el rango de temas, las ideas y las fuentes desde las que se muestran recomendaciones permitiendo así que haya diversidad y que el usuario explore nuevos puntos temas o puntos de vista.

Así que este es el tema del que les quería hablar. Cortito, pero creo que muy interesante, para tener en cuenta como a veces más allá de las bondades se puede generar un efecto no deseado y como contrario a lo que siempre se busca en machine learning que es tener la mayor precisión posible, en este caso la solución sería tener una precisión no tan alta y mostrar unas recomendaciones medio random de vez en cuando.

Y hasta acá llegamos con el episodio de hoy, gracias por estar ahí escuchando y quedarse hasta el final, y gracias por los me gusta y los comentarios en Ivoox y las recomendaciones de 5 estrellas en iTunes.

Nos escuchamos en el próximo episodio donde seguiremos hablando de este hermoso mundo de la inteligencia artificial.

Dejar recomendación en iTunes

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *