LOGO_AIR_IAB_N_HD.jpg

El Supremo de EE UU se inclina por mantener el blindaje de las redes sociales por su contenido

Los jueces se resisten a responsabilizar a las plataformas por los mensajes y vídeos publicados en ellas por grupos terroristas

La jueza Elena Kagan se sinceró el martes: “Somos un tribunal. Realmente no sabemos de estas cosas. Ya sabe, estos no son los nueve mayores expertos en Internet”. El Tribunal Supremo de Estados Unidos estaba analizando el alcance de “las 26 palabras que han creado el internet de hoy”, como las definió el abogado de Google (copiando una expresión usada muchas veces). Se trata del artículo que permite a las plataformas y redes sociales vetar contenido que consideren inapropiado y que al tiempo las blinda de responsabilidad frente a los contenidos que suban terceros. Tanto en esa vista del martes como en la celebrada este miércoles, los jueces parecieron inclinarse por mantener ese blindaje.

Se debatían dos casos diferentes. En el del martes estaba en el punto de mira si las recomendaciones del algoritmo de YouTube (y por extensión de cualquier red social) están protegidas igual que los propios contenidos de terceros. Los familiares de Nohemi Gonzalez, una de las víctimas de los atentados del Estado Islámico que conmocionaron París el 13 de noviembre de 2015, en la sala de conciertos Bataclan y otros lugares de la capital francesa, demandaron a Google, dueño de YouTube, por la difusión de vídeos del Estado Islámico.

En el caso cuya vista se celebró este miércoles, se analizaba si las redes sociales en general, y Twitter como primer demandado en particular, habían favorecido el desarrollo de ciertas organizaciones terroristas. En este caso la demanda la presentaban los familiares de una víctima del atentado terrorista contra la discoteca Reina de Estambul en el que murieron 39 personas en la fiesta de Nochevieja de 2016, año nuevo de 2017.

La norma a debate, y de cuya interpretación depende el futuro de internet, es el famoso artículo 230 de la Ley de Decencia en las Comunicaciones de 1996, que establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”.

Los jueces del Supremo no serán los mayores expertos en internet, como reconocía Kagan, pero dejaron entrever su postura. El hecho de que hubiesen admitido los dos casos a la vez y las dudas expresadas en el pasado sobre esa descarga de responsabilidad llevaban a pensar en que abordaban los casos dispuestos a cambiar la interpretación de la norma. Sin embargo, de lo escuchado en estos dos últimos días se deduce que se inclinan por mantener ese blindaje.

En el primer caso, Gonzalez contra Googleel abogado de los el de los familiares de Nohemi Gonzalez ha ido cambiando de argumentos. Al final, su queja se centraba en la forma en que el algoritmo de YouTube invita a quienes ven vídeos del Estado Islámico a ver otros similares. “En algunas circunstancias, la forma en que se organizan o presentan los contenidos de terceros podría transmitir otra información del propio demandado”, dijo, reduciendo su argumentación a las miniaturas que sugiere la plataforma mientras se ve otro vídeo.

Los jueces mostraron enseguida su escepticismo. Clarence Thomas y otros jueces dijeron que les parecía normal que YouTube mostrase vídeos de gatos a quienes ven vídeos de gatos, o de cocina a los que ven vídeos de cocina o de carreras o del ISIS... “Creo que tiene que darnos un ejemplo más claro de lo que quiere decir exactamente”, le retó. John Roberts, presidente del tribunal, también manifestó que le costaba hacer responsable a Google si lo que hay es un algoritmo genérico, no uno destinado a promocionar el contenido terrorista.

Elena Kagan se manifestó en esa misma línea: “Esta es una disposición prealgoritmo y todo el mundo está haciendo todo lo posible para averiguar cómo se aplica en un mundo post-algoritmo”, dijo, para luego concluir: “Los algoritmos son endémicos de Internet, que cada vez que alguien mira algo en Internet, hay un algoritmo involucrado”.

La jueza Sonia Sotomayor reprochó al letrado que en su demanda, un párrafo tras otro, aseguraba que TouTube era responsable por no haber retirado el vídeo de su plataforma y, sin embargo, en la vista admitía ahora que no tenía por qué hacerlo y que el problema estaba en que su algoritmo lo recomendase verlo. “¿Los proveedores de Internet pueden ser responsables de qué? ¿De mostrarme el siguiente vídeo similar al que estoy viendo?”, preguntó escéptica.

Aunque el abogado de la familia González insistió en que cuando la plataforma empieza a sugerir cosas que no has pedido expresamente ya no debería estar blindada, no parecía convencer a los jueces. “No entiendo cómo una sugerencia neutral sobre algo en lo que has expresado interés es complicidad [con el terrorismo]. Estoy intentando que nos explique cómo algo que es estándar en YouTube para prácticamente cualquier cosa en la que tengas interés de repente equivale a complicidad porque estás en la categoría Estado Islámico”, le dijo Thomas.

El juez Samuel Alito también pareció rechazar esa argumentación: “Me temo que estoy completamente confundido con el argumento que está esgrimiendo. (...) ¿Está actuando [Youtube] como un editor solo por mostrar estas miniaturas de vídeos de ISIS después de una búsqueda de vídeos de ISIS?”, dijo, reduciendo al absurdo el argumento: “¿Así que si quieren que ese artículo les proteja, no deberían usar miniaturas?”

Sonia Sotomayor y Elena Kagan dijeron que quizá haya un punto intermedio entre esa argumentación tan floja de las miniaturas y no poner límite alguno. Ante la necesidad de trazar esa línea divisoria, Kagan se preguntó: “¿No es eso algo que debe hacer el Congreso, no el Tribunal?”

La norma se dictó en 1996, cuando no existía ni Google, ni Youtube, ni Facebook ni Twitter. Demócratas y republicanos han pedido modificarla, con diferentes argumentos. Y en esto, como señaló el juez Neil Gorsuch, el siguiente paso es la inteligencia artificial: “En un mundo post-algoritmo, la inteligencia artificial puede generar algunas formas de contenido. Genera poesía. Genera polémicas (...) Eso sería contenido que va más allá de escoger, elegir, analizar o digerir contenido. Y eso no está protegido” por el famoso artículo 230, en su opinión.

Y el juez Brett Kavanaugh expresó su preocupación por todas las opiniones aportadas a la causa que señalan que retirar ese blindaje pone en riesgo internet tal y como hoy lo conocemos, sobre si “hacer eso, retirarse ahora de la interpretación que ha estado en vigor, crearía una gran conmoción económica, realmente rompería la economía digital con todo tipo de efectos sobre los trabajadores y los consumidores, los planes de jubilación...”, señaló, para concluir: “No estamos en condiciones de dar cuenta de ello (...) ¿Somos realmente el órgano adecuado para apartarnos de lo que había sido el texto y la interpretación coherente en los tribunales de apelación?”, apuntando también al Congreso.

Roberts, además, señaló que teme un auge desmesurado de las demandas si se retiraba la descarga de responsabilidad a las tecnológicas por contenidos de terceros.

La abogada de Google, Lisa Blatt, defendió el uso de algoritmos y de recomendaciones como algo consustancial con la actividad de los servicios de internet. “Toda publicación requiere organización y transmite inherentemente ese mismo mensaje implícito”, dijo. Según Blatt, el apartado c.1. del artículo 230 “refleja la decisión del Congreso de proteger a los sitios web por publicar el discurso de otras personas, incluso si publican intencionadamente el discurso dañino de otras personas”. “El Congreso tomó esa decisión para impedir que las demandas judiciales asfixiaran a Internet en sus inicios. El resultado ha sido revolucionario. Los innovadores abrieron nuevas fronteras para que el mundo compartiera información infinita, y los sitios web necesariamente eligen, seleccionan y organizan qué información de terceros ven primero los usuarios”, añadió, para advertir: “Exponer a los sitios web a la responsabilidad por recomendar implícitamente contenidos de terceros desafía el texto y amenaza la internet de hoy”.

Captar terroristas

El caso de este miércoles, Twitter contra Taamneh, tenía elementos en común y otros diferentes. La demanda de los familiares de uno de los asesinados en el atentado de Estambul sostiene que Twitter, Facebook y Google tienen responsabilidad en el atentado porque el Estado Islámico usó las redes sociales para ganar su notoriedad, transmitir sus mensajes y, en última instancia, captar terroristas. Un tribunal inferior admitió a trámite la demanda y los jueces del Supremo deben decidir si sigue adelante o no.

De nuevo, los jueces se mostraron más de lado de las tecnológicas que de la otra parte, pese a una intervención de la jueza Kagan, en que comparó a las tecnológicas con los bancos, a quienes se persigue en casos de blanqueo o financiación del terrorismo. “Estamos acostumbrados a pensar en los bancos como proveedores de servicios muy importantes a los terroristas. Tal vez no estemos tan acostumbrados, pero parece ser cierto que varios tipos de plataformas de redes sociales también proporcionan servicios a los terroristas”, dijo.

La mayoría de los jueces parecieron inclinarse más por la posición que expuso el magistrado Alito, quien señaló que no tendría sentido que las compañías telefónicas fueran consideradas responsables de la actividad delictiva de las personas que utilizan sus teléfonos. ¿Qué pasaría si la compañía “sabe que una persona en particular tiene antecedentes penales y probablemente se dedica a actividades delictivas y utiliza el teléfono para comunicarse con otros miembros de la banda? ¿Es eso complicidad con los delitos que cometen?”.

La ley antiterrorista castiga a quienes ayuden a sabiendas a una persona a cometer un acto terrorista. La jueza Amy Coney Barrett subrayó que no hay suficientes hechos concretos que sustenten la demanda, más allá de proclamas generales sobre que las redes, y en particular Twitter, se usasen para reclutamiento en general o radicalización de seguidores. Pero no hay en la demanda pruebas concretas como mensajes directos, hilos de comentarios u otros indicios de que la red estaba siendo utilizada para coordinar actividades para un ataque terrorista”.

En un momento dado, la jueza Sonia Sotomayor le dijo al abogado de Twitter, Facebook y Google, Seth Waxman, que le ayudara a esbozar cómo sería una opinión si el tribunal fallara a favor de sus clientes. “Escríbemelo”, le dijo. El juez Brett Kavanaugh resumió el argumento de Waxman de esta manera: “Cuando hay un negocio legítimo que proporciona servicios sobre una base ampliamente disponible... no va a ser responsable en virtud de este artículo, incluso si sabe que la gente mala utiliza sus servicios para cosas malas”. Y Waxman mostró su acuerdo: “Correcto, a menos que tenga conocimiento concreto, en este caso, serían cuentas o mensajes, que están, de hecho, siendo utilizados para planear o cometer un acto terrorista, incluyendo un ataque como el que hirió al demandante. Es decir, tiene que haber un conocimiento concreto en ese contexto. Esa es nuestra norma”.

Las sentencias de los dos casos se esperan para el mes de junio, cuando acaba el curso judicial antes de las vacaciones. Es el mes en que suelen concentrarse las sentencias más relevantes.

Fuente: El País