Moderación y contenido ofensivo en Youtube


Moderación y contenido ofensivo en Youtube

YouTube tiene un conjunto de pautas comunitarias destinadas a reducir el abuso de las funciones del sitio. Las «Normas de la comunidad» de YouTube prohíben subir vídeos que contengan difamación, pornografía y material que fomente la conducta delictiva. El material generalmente prohibido incluye contenido sexualmente explícito, videos de abuso animal, videos impactantes, contenido subido sin el consentimiento del titular de los derechos de autor, incitación al odio, spam y comportamiento depredador. YouTube depende de sus usuarios para marcar el contenido de los videos como inapropiado, y un empleado de YouTube verá un video marcado para determinar si viola las pautas del sitio. A pesar de las pautas, YouTube ha enfrentado críticas sobre aspectos de sus operaciones, sus algoritmos de recomendación perpetúan videos que promueven teorías de conspiración y falsedades, albergan videos aparentemente dirigidos a niños pero que contienen contenido violento o sexualmente sugerente que involucra a personajes populares, videos de menores que atraen actividades pedófilas en sus secciones de comentarios, y políticas fluctuantes sobre los tipos de contenido que pueden monetizarse con publicidad.

YouTube contrata a empresas para que contraten moderadores de contenido, quienes ven el contenido marcado como una posible infracción de las políticas de contenido de YouTube y determinan si deben eliminarse. En septiembre de 2020, un ex moderador de contenido presentó una demanda colectiva que informó haber desarrollado un trastorno de estrés postraumático (TEPT) después de un período de 18 meses en el trabajo. La ex moderadora de contenido dijo que regularmente la obligaban a exceder el límite establecido de YouTube de cuatro horas por día de visualización de contenido gráfico. La demanda alega que los contratistas de YouTube brindaron poca o ninguna capacitación o apoyo para la salud mental de su moderador, hicieron que los posibles empleados firmaran NDA antes de mostrarles cualquier ejemplo de contenido que verían mientras revisaban, y censuraron toda mención de trauma en sus foros internos. También afirma que las solicitudes de que el contenido extremadamente gráfico se difumine, reduzca en tamaño o se haga monocromático, de acuerdo con las recomendaciones del Centro Nacional para Menores Desaparecidos y Explotados, fueron rechazadas por YouTube como una prioridad menor para la empresa.

Para limitar la difusión de información errónea y noticias falsas a través de YouTube, ha implementado una política integral con respecto a cómo planear lidiar con videos manipulados técnicamente.

El contenido controvertido ha incluido material relacionado con la negación del Holocausto y el desastre de Hillsborough, en el que 96 aficionados al fútbol de Liverpool murieron aplastados en 1989. En julio de 2008, el Comité de Cultura y Medios de la Cámara de los Comunes del Reino Unido declaró que no estaba «impresionado» con el sistema de YouTube para vigilar sus videos y argumentó que «la revisión proactiva del contenido debería ser una práctica estándar para los sitios que alojan a los usuarios. contenido generado «. YouTube respondió diciendo:

Tenemos reglas estrictas sobre lo que está permitido y un sistema que permite a cualquier persona que vea contenido inapropiado informarlo a nuestro equipo de revisión las 24 horas del día, los 7 días de la semana, y que lo resuelva de inmediato. Educamos a nuestra comunidad sobre las reglas e incluimos un enlace directo desde cada página de YouTube para que este proceso sea lo más fácil posible para nuestros usuarios. Dado el volumen de contenido cargado en nuestro sitio, creemos que esta es, con mucho, la forma más eficaz de asegurarnos de que la pequeña minoría de videos que infringen las reglas se eliminen rápidamente (Julio de 2008).

En octubre de 2010, el congresista estadounidense Anthony Weiner instó a YouTube a eliminar de su sitio web los videos del imán Anwar al-Awlaki. YouTube retiró algunos de los videos en noviembre de 2010, afirmando que violaban las pautas del sitio. En diciembre de 2010, YouTube agregó la capacidad de marcar videos por contener contenido de terrorismo.

En 2018, YouTube introdujo un sistema que agregaría automáticamente cuadros de información a los videos que sus algoritmos determinaron que pueden presentar teorías de conspiración y otras noticias falsas, llenando el cuadro de información con contenido de la Enciclopedia Británica y Wikipedia como un medio para informar a los usuarios para minimizar la propagación de información errónea sin afectar la libertad de expresión. A raíz del incendio de Notre-Dame de Paris el 15 de abril de 2019, el sistema de YouTube marcó automáticamente varios videos subidos por los usuarios del histórico incendio con un artículo de la Enciclopedia Británica sobre las falsas teorías de conspiración en torno a los ataques del 11 de septiembre. Varios usuarios se quejaron a YouTube por esta conexión inapropiada. Los funcionarios de YouTube se disculparon por esto, indicando que sus algoritmos habían identificado erróneamente los videos de incendios y habían agregado el bloque de información automáticamente, y estaban tomando medidas para remediarlo.

Cinco creadores de contenido líderes cuyos canales se basaron en materiales LGBTQ + presentaron una demanda federal contra YouTube en agosto de 2019, alegando que los algoritmos de YouTube desvían el descubrimiento de sus canales, lo que afecta sus ingresos. Los demandantes afirmaron que los algoritmos desalientan el contenido con palabras como «lesbiana» o «gay», que serían predominantes en el contenido de sus canales, y debido a la casi monopolización de los servicios de video en línea de YouTube, están abusando de esa posición.

YouTube ha sido criticado por utilizar un algoritmo que otorga gran importancia a los videos que promueven teorías de conspiración, falsedades y discursos marginales incendiarios. Según una investigación de The Wall Street Journal, «las recomendaciones de YouTube a menudo llevan a los usuarios a canales que presentan teorías de conspiración, puntos de vista partidistas y videos engañosos, incluso cuando esos usuarios no han mostrado interés en dicho contenido. Cuando los usuarios muestran un sesgo político en lo que que eligen ver, YouTube generalmente recomienda videos que se hacen eco de esos prejuicios, a menudo con puntos de vista más extremos «. Cuando los usuarios buscan términos políticos o científicos, los algoritmos de búsqueda de YouTube a menudo dan importancia a engaños y teorías de conspiración. Después de que YouTube generó controversia por otorgar la máxima facturación a los videos que promocionan falsedades y conspiración cuando las personas hicieron consultas sobre noticias de última hora durante el tiroteo en Las Vegas de 2017, YouTube cambió su algoritmo para dar mayor prominencia a las fuentes de medios convencionales. En 2018, se informó que YouTube nuevamente estaba promocionando contenido marginal sobre noticias de última hora, dando gran importancia a los videos de conspiración sobre la muerte de Anthony Bourdain.

En 2017, se reveló que se estaban colocando anuncios en videos extremistas, incluidos videos de apologistas de la violación, antisemitas y predicadores del odio que recibieron pagos publicitarios. Después de que las empresas comenzaron a dejar de anunciarse en YouTube a raíz de este informe, YouTube se disculpó y dijo que les daría a las empresas un mayor control sobre dónde se colocaron los anuncios.

Alex Jones, conocido por sus teorías de conspiración de derecha, había conseguido una audiencia masiva en YouTube. YouTube generó críticas en 2018 cuando eliminó un video de Media Matters que compilaba declaraciones ofensivas hechas por Jones, indicando que violaba sus políticas sobre «acoso e intimidación». Sin embargo, el 6 de agosto de 2018, YouTube eliminó la página de YouTube de Alex Jones luego de una infracción de contenido.

El profesor de la Universidad de Carolina del Norte, Zeynep Tufekci, se refirió a YouTube como «El gran radicalizador» y dijo que «YouTube puede ser uno de los instrumentos de radicalización más poderosos del siglo XXI». Jonathan Albright del Tow Center for Digital Journalism en Columbia La universidad describió YouTube como un «ecosistema de conspiración».

En enero de 2019, YouTube dijo que había introducido una nueva política a partir de los Estados Unidos destinada a dejar de recomendar videos que contienen «contenido que podría desinformar a los usuarios de manera dañina». YouTube dio como ejemplos teorías de la tierra plana, curas milagrosas y veracidad del 11 de septiembre. Los esfuerzos dentro de la ingeniería de YouTube para dejar de recomendar videos extremistas en el límite que no llegaban al discurso de odio prohibido y rastrear su popularidad fueron originalmente rechazados porque podían interferir con la participación de los espectadores. A fines de 2019, el sitio comenzó a implementar medidas dirigidas a «aumentar el contenido autorizado y reducir el contenido límite y la desinformación dañina».

En un estudio de julio de 2019 basado en diez búsquedas de YouTube utilizando el navegador Tor relacionadas con el clima y el cambio climático, la mayoría de los videos eran videos que comunicaban opiniones contrarias al consenso científico sobre el cambio climático.

Una investigación de la BBC de 2019 sobre búsquedas en YouTube en diez idiomas diferentes encontró que el algoritmo de YouTube promovía información errónea sobre la salud, incluidas curas falsas para el cáncer. En Brasil, YouTube se ha relacionado con promover la desinformación pseudocientífica sobre asuntos de salud, así como el discurso marginal de extrema derecha y las teorías de la conspiración.

En Filipinas, se ha demostrado que numerosos canales como «Showbiz Fanaticz», «Robin Sweet Showbiz» y «PH BREAKING NEWS», cada uno con al menos 100.000 suscriptores, están difundiendo información errónea relacionada con figuras políticas antes de las elecciones filipinas de 2022.

Uso entre supremacistas blancos

Antes de 2019, YouTube había tomado medidas para eliminar videos o canales específicos relacionados con contenido supremacista que habían violado sus políticas de uso aceptable pero que, por lo demás, no tenían políticas en todo el sitio contra el discurso de odio.

A raíz de los ataques a la mezquita de Christchurch en marzo de 2019, YouTube y otros sitios como Facebook y Twitter que permitían contenido enviado por los usuarios generaron críticas por hacer poco para moderar y controlar la propagación del discurso de odio, que se consideró un factor en la justificación. por los ataques. Estas plataformas fueron presionadas para eliminar dicho contenido, pero en una entrevista con The New York Times, el director de productos de YouTube, Neal Mohan, dijo que, a diferencia del contenido, como los videos de ISIS, que toman un formato particular y, por lo tanto, son fáciles de detectar a través de algoritmos asistidos por computadora, La incitación al odio era más difícil de reconocer y manejar y, por lo tanto, no podía tomar medidas para eliminarla sin la interacción humana.

YouTube se unió a una iniciativa liderada por Francia y Nueva Zelanda con otros países y empresas de tecnología en mayo de 2019 para desarrollar herramientas que se utilizarán para bloquear el discurso de odio en línea y desarrollar regulaciones, que se implementarán a nivel nacional, que se impondrán a las empresas de tecnología que no tomó medidas para eliminar ese discurso, aunque los Estados Unidos se negaron a participar. Posteriormente, el 5 de junio de 2019, YouTube anunció un cambio importante en sus términos de servicio, «prohibiendo específicamente los videos que alegan que un grupo es superior a fin de justificar la discriminación, segregación o exclusión basada en cualidades como edad, género, raza, casta, religión, orientación sexual o condición de veterano «. YouTube identificó ejemplos específicos de videos como los que «promueven o glorifican la ideología nazi, que es intrínsecamente discriminatoria». YouTube declaró además que «eliminaría el contenido que niega que se hayan producido hechos violentos bien documentados, como el Holocausto o el tiroteo en la escuela primaria Sandy Hook».

En junio de 2020, YouTube prohibió varios canales asociados con la supremacía blanca, incluidos los de Stefan Molyneux, David Duke y Richard B. Spencer, afirmando que estos canales violaban sus políticas sobre discurso de odio. La prohibición se produjo el mismo día en que Reddit anunció la prohibición de varios subforos de incitación al odio, incluido r / The_Donald.

Manejo de la pandemia de COVID-19 y otra información errónea

Tras la difusión a través de YouTube de información errónea relacionada con la pandemia COVID-19 de que la tecnología de comunicaciones 5G fue responsable de la propagación de la enfermedad del coronavirus 2019 que llevó a que múltiples torres 5G en el Reino Unido fueran atacadas por pirómanos, YouTube eliminó todos los videos que vinculaban 5G y el coronavirus de esta manera.

YouTube amplió esta política en septiembre de 2021 para cubrir videos que difunden información errónea relacionada con cualquier vacuna, incluidas las aprobadas durante mucho tiempo contra el sarampión o la hepatitis B, que habían recibido la aprobación de las autoridades sanitarias locales o de la Organización Mundial de la Salud. La plataforma eliminó las cuentas de activistas contra las vacunas como Robert F. Kennedy Jr. y Joseph Mercola en este momento. También se eliminaron dos cuentas vinculadas a RT Deutsch, el canal alemán de la red rusa RT, por infringir las políticas de YouTube.

Google y YouTube implementaron políticas en octubre de 2021 para negar la monetización o los ingresos a los anunciantes o creadores de contenido que promovieron la negación del cambio climático, que «incluye contenido que se refiere al cambio climático como un engaño o una estafa, afirmaciones que niegan que las tendencias a largo plazo muestren el clima global. está calentando y afirma que niega que las emisiones de gases de efecto invernadero o la actividad humana contribuyan al cambio climático «.

La seguridad y el bienestar de los niños en YouTube

A principios de 2017, hubo un aumento significativo en la cantidad de videos relacionados con niños, junto con la popularidad de los padres que vloguean las actividades de su familia y los creadores de contenido anteriores que se alejaron del contenido que a menudo era criticado o desmonetizado para convertirlo en material familiar. En 2017, YouTube informó que el tiempo que pasan viendo vloggers familiares había aumentado en un 90%. Sin embargo, con el aumento de videos con niños, el sitio comenzó a enfrentar varias controversias relacionadas con la seguridad infantil. Durante el segundo trimestre de 2017, los propietarios del popular canal FamilyOFive, que se mostraba a sí mismos haciendo «bromas» a sus hijos, fueron acusados ​​de abuso infantil. Sus videos fueron finalmente eliminados y dos de sus hijos fueron retirados de su custodia. Un caso similar ocurrió en 2019 cuando los dueños del canal Fantastic Adventures fueron acusados ​​de abusar de sus hijos adoptivos. Más tarde, sus videos serían eliminados.

Más tarde ese año, YouTube fue criticado por mostrar videos inapropiados dirigidos a niños y que a menudo presentaban personajes populares en situaciones violentas, sexuales o perturbadoras, muchos de los cuales aparecían en YouTube Kids y atrajo millones de visitas. El término «Elsagate» fue acuñado en Internet y luego utilizado por varios medios de comunicación para referirse a esta controversia. El 11 de noviembre de 2017, YouTube anunció que estaba fortaleciendo la seguridad del sitio para proteger a los niños de contenido inadecuado. Más tarde ese mes, la compañía comenzó a eliminar en masa videos y canales que hacían un uso inadecuado de personajes familiares. Como parte de una preocupación más amplia con respecto a la seguridad infantil en YouTube, la ola de eliminaciones también se dirigió a los canales que mostraban a los niños participando en actividades inapropiadas o peligrosas bajo la guía de adultos. En particular, la compañía eliminó Toy Freaks, un canal con más de 8.5 millones de suscriptores, que presentaba a un padre y sus dos hijas en situaciones extrañas y perturbadoras. Según el especialista en análisis SocialBlade, ganaba hasta 8,7 millones de libras esterlinas al año antes de su eliminación.

Incluso para el contenido que parece estar dirigido a niños y parece contener solo contenido apto para niños, el sistema de YouTube permite el anonimato de quién sube estos videos. Estas preguntas se han planteado en el pasado, ya que YouTube ha tenido que eliminar canales con contenido para niños que, después de hacerse populares, de repente incluyen contenido inapropiado enmascarado como contenido para niños. Alternativamente, parte de la programación infantil más vista en YouTube proviene de canales que no tienen propietarios identificables, lo que genera preocupaciones sobre la intención y el propósito. Un canal que había sido motivo de preocupación era «Cocomelon», que proporcionaba numerosos videos animados de producción masiva dirigidos a los niños. Hasta 2019, había generado hasta US $ 10 millones al mes en ingresos publicitarios y era uno de los canales más grandes para niños en YouTube antes de 2020. La propiedad de Cocomelon no estaba clara fuera de sus vínculos con «Treasure Studio», en sí mismo un desconocido. entidad, lo que generó preguntas sobre el propósito del canal, pero Bloomberg News pudo confirmar y entrevistar al pequeño equipo de propietarios estadounidenses en febrero de 2020 con respecto a «Cocomelon», quienes declararon su objetivo para el canal era simplemente entretener a los niños, queriendo mantenerse en silencio para evitar la atención de inversores externos. El anonimato de dicho canal genera preocupación debido a la falta de conocimiento del propósito al que están tratando de cumplir. La dificultad para identificar quién opera estos canales «se suma a la falta de responsabilidad», según Josh Golin de la Campaign for a Commercial-Free Childhood, y la consultora educativa Renée Chernow-O’Leary descubrió que los videos fueron diseñados para entretener sin intención. educar, lo que lleva a que tanto los críticos como los padres se preocupen de que sus hijos se sientan demasiado cautivados por el contenido de estos canales. Los creadores de contenido que hacen videos aptos para niños han tenido dificultades para competir con canales más grandes como ChuChu TV, no pueden producir contenido al mismo ritmo que estos canales grandes y carecen de los mismos medios de promoción a través de los algoritmos de recomendación de YouTube que los más grandes. las redes de canales animados han compartido.

En enero de 2019, YouTube prohibió oficialmente los videos que contenían «desafíos que fomentan actos que tienen un riesgo inherente de daño físico grave» (como, por ejemplo, el desafío Tide Pod) y videos con bromas que «hacen que las víctimas crean que están peligro «o causar angustia emocional en los niños.

Sexualización de niños y pedofilia

También en noviembre de 2017, se reveló en los medios de comunicación que muchos videos con niños, a menudo subidos por los mismos menores, y que mostraban contenido inocente, como niños jugando con juguetes o haciendo gimnasia, estaban atrayendo comentarios de pedófilos. con depredadores que encuentran los videos a través de listas de reproducción privadas de YouTube o que ingresan ciertas palabras clave en ruso. Otros videos centrados en los niños que se subieron originalmente a YouTube comenzaron a propagarse en la web oscura y se cargaron o insertaron en foros que se sabe que son utilizados por pedófilos.

Como resultado de la controversia, que se sumó a la preocupación por «Elsagate», varios anunciantes importantes cuyos anuncios se publicaban en contra de esos videos congelaron el gasto en YouTube. En diciembre de 2018, The Times encontró más de 100 casos de acicalamiento en los que los niños fueron manipulados en comportamientos sexualmente implícitos (como quitarse la ropa, adoptar poses abiertamente sexuales y tocar a otros niños de manera inapropiada) por extraños. Después de que un periodista marcó los videos en cuestión, la mitad de ellos fueron eliminados y el resto fue eliminado después de que The Times se puso en contacto con el departamento de relaciones públicas de YouTube.

En febrero de 2019, el vlogger de YouTube Matt Watson identificó un «agujero de gusano» que haría que el algoritmo de recomendación de YouTube atrajera a los usuarios a este tipo de contenido de video y que todo el contenido recomendado por ese usuario incluyera solo este tipo de videos. La mayoría de estos videos tenían comentarios de depredadores sexuales con marcas de tiempo de cuándo los niños se muestran en posiciones comprometedoras o haciendo comentarios indecentes. En algunos casos, otros usuarios habían vuelto a subir el video en un formato no listado pero con enlaces entrantes de otros videos, y luego los monetizaron, propagando esta red. A raíz de la controversia, el servicio informó que habían eliminado más de 400 canales y decenas de millones de comentarios, y denunciaron a los usuarios infractores a las fuerzas del orden y al Centro Nacional para Menores Desaparecidos y Explotados. Un portavoz explicó que «cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es aborrecible y tenemos políticas claras que lo prohíben en YouTube. Hay más por hacer y seguimos trabajando para mejorar y detectar el abuso más rápidamente». A pesar de estas medidas, AT&T, Disney, Dr. Oetker, Epic Games y Nestlé retiraron su publicidad de YouTube.

Posteriormente, YouTube comenzó a desmonetizar y bloquear la publicidad sobre los tipos de videos que han generado estos comentarios depredadores. El servicio explicó que se trataba de una medida temporal mientras exploran otros métodos para eliminar el problema. YouTube también comenzó a marcar los canales que presentan predominantemente a niños y a deshabilitar preventivamente sus secciones de comentarios. Los «socios de confianza» pueden solicitar que se vuelvan a habilitar los comentarios, pero el canal será responsable de moderar los comentarios. Estas acciones se dirigen principalmente a videos de niños pequeños, pero los videos de niños mayores y adolescentes también pueden estar protegidos si contienen acciones que pueden interpretarse como sexuales, como la gimnasia. YouTube declaró que también estaba trabajando en un mejor sistema para eliminar comentarios en otros canales que coincidieran con el estilo de los depredadores de niños.

Un intento relacionado de marcar algorítmicamente videos que contienen referencias a la cadena «CP» (una abreviatura de pornografía infantil) resultó en algunos falsos positivos prominentes que involucraban temas no relacionados con la misma abreviatura, incluidos videos relacionados con el videojuego para dispositivos móviles Pokémon Go (que usa » CP «como abreviatura de la estadística» Combat Power «) y Club Penguin. YouTube se disculpó por los errores y restableció los videos afectados. Por otra parte, los trolls en línea han intentado que los videos se marquen para su eliminación o eliminación mediante comentarios con declaraciones similares a las que habían dicho los depredadores de niños; esta actividad se convirtió en un problema durante la rivalidad PewDiePie vs T-Series a principios de 2019. YouTube declaró que no toman medidas en ningún video con estos comentarios, excepto aquellos que han marcado que probablemente atraigan la actividad de depredadores infantiles.

En junio de 2019, The New York Times citó a investigadores que encontraron que a los usuarios que vieron videos eróticos se les podrían recomendar videos aparentemente inocuos de niños. Como resultado, el senador Josh Hawley declaró planes para introducir una legislación federal que prohibiría que YouTube y otros sitios para compartir videos incluyan videos que incluyan principalmente a menores como videos «recomendados», excluyendo aquellos que fueron «producidos profesionalmente», como videos de talentos televisados. muestra. YouTube ha sugerido planes potenciales para eliminar todos los videos con niños del sitio principal de YouTube y transferirlos al sitio de YouTube Kids, donde tendrían controles más estrictos sobre el sistema de recomendación, así como otros cambios importantes en el sitio principal de YouTube para la función recomendada. y sistema de reproducción automática.

April Fools gags

YouTube incluyó una broma de April Fools en el sitio el 1 de abril de cada año desde 2008 hasta 2016. En 2008, todos los enlaces a videos en la página principal fueron redirigidos al video musical de Rick Astley «Never Gonna Give You Up», una broma conocida como «rickrolling». Al año siguiente, al hacer clic en un video en la página principal, toda la página se puso patas arriba, lo que YouTube afirmó que era un «nuevo diseño». En 2010, YouTube lanzó temporalmente un modo «TEXTp» que convertía imágenes de video en letras artísticas ASCII «para reducir los costos de ancho de banda en 1 dólar por segundo».

Al año siguiente, el sitio celebró su «centenario» con una variedad de películas mudas en tonos sepia, al estilo de principios del siglo XX, incluida una parodia de Keyboard Cat. En 2012, al hacer clic en la imagen de un DVD junto al logotipo del sitio, apareció un video sobre una supuesta opción para pedir todos los videos de YouTube para entregarlos a domicilio en DVD.

En 2013, YouTube se asoció con la compañía de periódicos satíricos The Onion para afirmar en un video subido que el sitio web para compartir videos se lanzó como un concurso que finalmente había llegado a su fin y que cerraría durante diez años antes de ser relanzado en 2023, con solo el video ganador. El video fue protagonizado por varias celebridades de YouTube, incluido Antoine Dodson. Un video de dos presentadores anunciando los videos nominados transmitidos en vivo durante 12 horas.

En 2014, YouTube anunció que era responsable de la creación de todas las tendencias de videos virales y reveló avances de las próximas tendencias, como «Reloj», «Kissing Dad» y «Glub Glub Water Dance». Al año siguiente, YouTube agregó un botón de música a la barra de ideo que reproducía muestras de «Sandstorm» de Darude. [385] En 2016, YouTube introdujo una opción para ver todos los videos de la plataforma en modo de 360 ​​grados con Snoop Dogg.