Dinero

¿Por qué Facebook no 'limpia' su contenido?

Zuckerberg se ha disculpado en múltiples ocasiones

¿Por qué Facebook no 'limpia' su contenido?

¿Por qué Facebook no 'limpia' su contenido?

AP

La pregunta surge a cada rato: Con tanto material extremista, expresiones de intolerancia, interferencia en elecciones e invasiones de privacidad, ¿qué le impide a Facebook limpiar su contenido?

El asunto es complicado y las razones incluyen el tamaño de la empresa, su modelo comercial y limitaciones técnicas, sin mencionar el hecho de que la firma creció por años sin rendirle cuentas a nadie. Y tampoco hay que olvidar el factor humano.

El lío más reciente es la revelación de que Facebook difundió inadvertidamente videos celebratorios de contenido extremista y páginas que se autogeneran para organizaciones como Estado Islámico y Al-Qaida. La compañía dice que está tomando medidas y que los problemas se están resolviendo. Eso es cierto, pero sus detractores afirman que no se hizo lo suficiente si se transmiten en vivo balaceras masivas y se difunden rumores que generan actos de violencia con consecuencias fatales.

“Son exasperantemente lentos al lidiar con todo esto, desde el abuso sexual de menores al terrorismo, la supremacía blanca, el bullying, la pornografía no consentida” y cosas como propaganda dirigida a categorías como “gente que detesta a los judíos” simplemente porque algunos usuarios catalogan el término como “interesante”, según Hany Farid, experto de la Universidad de California de Berkeley.

A medida que se acumulaban los problemas, Facebook se limitaba a ofrecer disculpas y hacer ajustes. A veces se justifica diciendo que no previó hasta qué punto elementos perniciosos podían darle un uso indebido a la plataforma. Más recientemente, la empresa destaca los avances que ha hecho, tanto en el uso de la inteligencia artificial en la detección de problemas como en la asignación de dinero y personal para hacerles frente.

“Después de hacer fuertes inversiones, estamos detectando y eliminando contenido terrorista con mucha más efectividad que hace dos años”, dijo Facebook esta semana en respuesta a las revelaciones de las páginas que se autogeneran. “No decimos que pillamos todo, y seguimos atentos y vigilantes en nuestros esfuerzos para combatir las agrupaciones terroristas de todo el mundo”.

Ha habido algunos progresos. A fines del 2016, el director ejecutivo Mark Zuckerberg causó revuelo al decir que la noción de que noticias falsas de su servicio podían haber decidido las elecciones de Estados Unidos era algo “bastante loco”. Posteriormente se retractó y desde entonces la firma redujo la cantidad de información falsa que circula en su servicio, de acuerdo con varios estudios.

El propio Zuckerberg evitó nuevos pasos en falso, admite errores y ofrece disculpas al público y a los legisladores.

Cuando la empresa resuelve un problema, sin embargo, surgen otros. Esto puede ser consecuencia de su ADN. No responde necesariamente al hecho de que su modelo comercial promueve el uso del servicio por tanta gente como sea posible, personas que dejan información personal que puede ser explotada por otros.

“Casi todo lo que diseñó Facebook lo hizo por el bien de la gente. De gente gentil, que celebra cumpleaños, que tiene cachorritos nuevos y que generalmente trata bien a los demás”, expresó Siva Vaidhyanathan, director del Centro de Medios de Prensa y Ciudadanía de la Universidad de Virginia. “Básicamente, Facebook está pensado para una especie mejor que la nuestra”.

Pero si el 1% de los 2,400 millones de usuarios de Facebook decide hacer cosas nocivas, son 24 millones de personas.

“Cada dos semanas escuchamos que Facebook está eliminando páginas problemáticas, haciendo promesas de que va a contratar más gente, de que va a explotar la inteligencia artificial y todo eso”, dijo Vaidhyanathan. “Pero con el tamaño que tiene Facebook, nada de eso importa. Estamos condenados a ver toda esta basura”.

Chris Hughes, cofundador de Facebook, pidió el jueves en un artículo de opinión que se divida esta gigantesca plataforma en varias partes. Vaidhyanathan también cree que una mayor regulación de parte del gobierno puede ser la respuesta. Leyes que “limiten la capacidad de las compañías de acumular toda nuestra información y usarla para difundir publicidad a la medida del usuario”.

Vinculan a Facebook con genocidio de rohingyas en Myanmar

/media/top5/rohinyas.jpg

La Misión de Investigación de las Naciones Unidas en Myanmar determinó en marzo de 2018 que la red social Facebook jugó un importante papel en la propagación del odio contra los musulmanes Rohingya y la crisis humanitaria subsecuente surgida en el país.

Expertos de la ONU, que tienen la tarea de investigar las violaciones de derechos e incluido un posible genocidio en Myanmar, presentaron los primeros resultados de sus indagatorias, las cuales vinculan a Facebook en las atrocidades que la comunidad rohingya vive desde hace meses al permitir la difusión de mensajes de odio en su contra.

“Facebook contribuyó sustancialmente al nivel de acrimonia y disensión y conflicto, si se quiere, dentro del público. El discurso del odio ciertamente es parte de eso. En lo que respecta a la situación de Myanmar, las redes sociales son Facebook y Facebook es las redes sociales", indicó Marzuki Darusman, presidente de la Misión de Investigación.

Escrito en: FACEBOOK Mark Zuckerberg Redes sociales Facebook, odio, hacer, páginas

Noticias relacionadas

EL SIGLO RECIENTES

+ Más leídas de Dinero

TE PUEDE INTERESAR

LECTURAS ANTERIORES

Fotografías más vistas

¿Por qué Facebook no 'limpia' su contenido?