Bitácora de fernand0 Cambiando de aires

Medios sociales e inteligencia colectiva, ¿hemos fracasado?

Vías y tren de Hidrógeno

Muchos creímos que una democratización de la posibilidad de publicar redundaría en más visiones que, además, serían mejores. Yo sigo pensando que es bueno que todo el mundo tenga acceso a la publicación y, por lo tanto, a tener una audiencia para sus ideas, pero también creo que eso nos impone una responsabilidad: estar atentos, filtrar, no dejarnos llevar…

En Algorithmic Amplification for Collective Intelligence publicaron un texto bastante interesante sobre el tema, con una versión más positiva de lo habitual. El subtítulo es: los medios sociales prometieron una nueva esfera pública democratizada, y digital. Los algoritmos nos pueden ayudar a alcanzarla.

Social media promised a new, democratized, and digital public sphere. Algorithms can help us get there.

Sin embargo, empieza hablando de cómo hemos pasado de estas tecnologías liberadoras a la era de la post-verdad: veíamos las herramientas como revolucionarias, facilitando la comunicación entre personas a nivel planetario.

Just about five years after their respective releases, Facebook and Twitter were touted as literally revolutionary tools. Through its enabling of cheap, fast, and easy peer-to-peer communication at scale,...

Sin embargo, lo que estamos viendo es un incremento de lo que nos hace pensar que la gente ha perdido su capacidad de razonar, debatir y conseguir tener creencias ajustadas a la realidad.

Rather than ushering in the era of the more informed citizen, the increasing use of social media had coincided with events that seemed to fundamentally question people’s ability to reason, deliberate, and form accurate beliefs.

No está claro que la única responsabilidad sea de los medios sociales, por supuesto.

Pero hay que entender el papel que desempeñan los algoritmos en la esfera pública en la red, empezando por la clara sobreabundancia de información.

In other words, we now find ourselves faced with information overload. It is impossible for people to engage with all information available to them.

Esto ha hecho que en muchas ocasiones nos veamos obligados a confiar en los algoritmos, que nos permitirían manejar mejor esta sobrecarga. Estos algoritmos se habrían hecho, en cierto modo, imprescindibles para poder enfrentarnos a todo el contenido disponible.

n response to this information overload, we have come to rely on content-curating algorithms such as those underlying recommender systems on social media ... ... These algorithms provide a truly indispensable service.

Pero claro, estos algoritmos no son neutros, y promueven ciertos tipos de contenido frente a otros, de forma que juchas veces es inocuo, aunque que no siempre.

Other the other hand, the algorithms we rely on to navigate through the overload of information online are not neutral. By design, they tend to promote some types of content while suppressing others —a process sometimes referred to as algorithmic amplification.[44,45] While this is innocuous or beneficial in many instances,...

No sólo eso, sino que en muchos casos este diseño es paternalista, puesto que trata de indicarnos qué es lo relevante para nosotros, desde el punto de vista de sus diseñadores. Y el objetivo casi siempre es económico (que las plataformas ganen más), así que los algoritmos tratan de obtener esos resultados.

As currently implemented, algorithmic amplification is inherently paternalistic. The underlying algorithms are designed by platform engineers who get to decide what it means for some content to be “relevant” to some user. Since most platforms have commercial goals to retain their users and maximize revenue, they are incentivized to design algorithms that amplify content in ways that achieve these goals.

Por lo tanto, algo habría que hacer para que las plataformas reflejen mejor los intereses de sus usuarios y esto pasaría por hacer algunos cambios en la forma de interactuar, mejorar las competencias digitales de la gente o hacer que las plataformas se comporten de manera más transparente.

The basic idea is that by making small changes in the user interface, supporting users’ digital competencies, or by regulating platforms to be more transparent, people might be able to have more informative and less misleading experiences online

Algunos ejemplos de esto son los verificadores externos (factchecks) y las notas de las comunidades (community notes). Pero es inevitable que estas medidas se centren en una parte del problema, sin poder ayudar al usuario en todas sus necesidades.

All of these efforts are valuable and worthwhile. They help people get the most out of access to information online without encroaching on their agency. However, these existing efforts have tended to focus on just part of the picture.

También podríamos ver estos algorimos y su amplificación como una oportunidad: que nos ayuden a navegar pero que no estén optimizados para engancharnos a nada, ¿sería esto posible?

What if we viewed algorithmic ranking and amplification not as a threat to be mitigated, but as an opportunity? We need algorithms to help us navigate information online, but those algorithms need not optimize for engagement. Is it possible to engineer a better online public sphere by changing the algorithms that mediate it?

Ya hay algunas iniciativas, por ejemplo en Spotiy saben que si los algoritmos se basan solo en las relaciones con el contenido, lo que aparece es que los ricos se hacen más ricos y los nuevos participantes tienen dificilísimo poder despertar el interés de nadie. Así que añaden parámetros que contrarestan este efecto.

At Spotify, for instance, it has been recognized that an exclusively engagement-based approach to recommendation would result in a rich-get-richer feedback loop, whereby the popularity of top performers gets rewarded over and over again while new artists have little opportunity to break into the market. For this reason, Spotify researchers have included a “fairness” metric in their algorithm so that new artists, and artists of different demographics, are more likely to be included in recommendations and playlists.

Claro, digo yo, cuando se producen estos fenómenos lo que termina sucediendo es que la gente se va, porque lo que obtienen va perdiendo más y más interés.

En YouTube, nos dicen, también incluyen parámetros relacionados con la ‘responsabilidad’ que incluye respuestas a encuestas que se hacen los usuarios.

At YouTube, criticism that their engagement-based approach to recommendations amplified toxic videos was rebutted with an explanation that, “since 2017, YouTube has recommended clips based on a metric called ‘responsibility,’ which includes input from satisfaction surveys it shows after videos.”

Una vez alcanzadas (cuando se alcance) las recomendaciones cuyo objetivo es el benficio social, la siguiente etapa sería tratar de alcanzar la inteligencia colectiva: esto es, algoritmos que mejoren la deliberación y mejoren nuestro conocimiento.

Once we acknowledge that the algorithms driving social media recommender systems and civic platforms can be programmed to optimize for socially beneficial outcomes, it seems reasonable to ask: Can we optimize for collective intelligence? Specifically, can we design algorithms to curate content in ways that support deliberation and improve the accuracy of our beliefs?.

También sería interesante dar visibilidad a los usuarios que tengan un mejor historial de buen juicio sobre algún tema.

A second thought might be to amplify users with track records of accurate judgments on a given topic.

Y la pregunta es, ¿sería posible amplificar algorítmicamente los buenos argumentos?

This stream of research begs the question: What if we could algorithmically amplify good arguments online? If algorithms could classify and promote strong, well-structured arguments over fallacious, weak arguments, this could seemingly foster more informed deliberation online.

Nada garantiza que esto fuera a mejorar el comportamiento de la gente en la red, ni sus habilidades o conocimientos y a partir de aquí el artículo se vuelve algo más técnico, sin olvidar que esto también es manipular la información y a la gente.

Another criticism of this work is that content-curating algorithms are manipulative and redesigning them does not change this. While it is true that content-curating algorithms are inherently paternalistic as currently implemented, there are reasons to not shy away from this issue.

Tampoco hay que olvidar que estas plataformas son negocios y hace falta que haya incentivos y modelos de negocio para que estas nuevas aproximaciones tengan sentido.

Even if algorithms for intelligence-based ranking are developed, there are no incentives or business models for adopting them

Muy interesante. Léanlo entero, si pueden.

Mi opinión es que, efectivamente, estas propuestas parecen difíciles de conseguir, pero que si nadie prueba es bastante probable que sigamos igual. También, como digo cada vez que puedo, que tenemos que estar atentos individualmente, no dejarnos llevar por las emociones (o al menos solo de vez en cuando) y estar alerta todo el tiempo para no equivocarnos a la hora de apoyar causas, difundir información y estar en la red. Y tampoco olvidar que estos algoritmos sociales están siendo emulados desde los medios más tradicionales, que necesitan sobrevivir y también necesitan que les prestemos atención, de la manera que estemos dispuestos a hacerlo.