Enquanto parte do compromisso de transparência, o YouTube anuncia a extensão do âmbito do seu Relatório de Transparência e passa também a incluir informação adicional como canais removidos, nº de comentários removidos e o motivo pelo qual um vídeo ou canal foi removido.
Destaques do relatório - reflectindo dados entre Julho e Setembro 2018:
- Remoção de 7.8 milhões de vídeos
- 81% destes vídeos foram detectados primeiros por máquinas
- Dos que foram detectados por máquinas, 74,5% não tinham ainda recebido uma única visualização
- Remoção de mais de 224 milhões de comentários que infringiam as regras da comunidade.
Remoções mais rápidas e gestão de comentários - actualização sobre como estamos a aplicar as regras da comunidade do YouTube
Sempre utilizámos uma combinação entre revisão humana e tecnologia para lidar com os conteúdos que não respeitam as regras da nossa plataforma e em 2017 introduzimos tecnologia de machine learning mais avançada para sinalizar conteúdos para revisão pelas nossas equipas. Esta combinação desta tecnologia de detecção inteligente permitiu-nos aplicar as nossas políticas de uma forma cada vez mais rápida.
Estamos empenhados em resolver o desafio da remoção rápida dos conteúdos que violam as regras da nossa comunidade e dar conhecimento público dos nossos progressos. É por isso, que em Abril lancámos o relatório trimestral YouTube Community Guidelines Enforcement Report. Enquanto parte do nosso compromisso de transparência, estamos hoje a alargar o âmbito do relatório e a incluir informação adicional como canais removidos, nº de comentários removidos e o motivo pelo qual um vídeo ou canal foi removido.
Foco na remoção de conteúdos que infringem políticas antes de serem visualizados
Anteriormente partilhámos informação sobre como a tecnologia está a ajudar a nossas equipas de revisão - constituídas por pessoas - a remover conteúdo, numa velocidade e num volume, que não seria possível apenas com o recurso a humanos. Encontrar todo o conteúdo que viola políticas no YouTube é um desafio imenso mas olhamos para isto como uma das nossas responsabilidade primordiais e estamos focados em continuar a trabalhar para remover este conteúdo antes mesmo de ele ser visto.
- Entre Julho e Setembro de 2018 foram removidos 7.8 milhões de vídeos
- E 81% destes vídeos foram detectados primeiros por máquinas
- Dos que foram detectados por máquinas, 74,5% não tinham ainda recebido uma única visualização
Quando detectamos que um vídeo viola as nossas regras removemos o vídeo e aplicamos uma penalização ao canal. Eliminamos canais inteiros caso os mesmos se dediquem a disponibilizar conteúdo proibido pelas regras da comunidade ou contenham uma única violação flagrante como a exploração sexual infantil. A vasta maioria das tentativas de abusos vem dos chamados maus actores que tentam carregar spam ou conteúdos para adultos: mais de 90% dos canais e mais de 80% dos vídeos que removemos em Setembro de 2018 foram removidos por violações das nossas políticas referentes a spam ou conteúdos para adultos e tiveram pouco mais de 10 visualizações.
A cada trimestre assistimos a uma flutuação nestes números, especialmente quando as nossas equipas reforçam as nossas políticas ou reforçam especificamente uma determinada categoria Por exemplo, no último ano, reforçamos a categoria de segurança infantil, com consultas regulares com especialistas da área para garantir que as nossas políticas capturam de forma abrangente conteúdos que podem ser prejudiciais às crianças, como por exemplo menores a lutar ou crianças envolvidas em situações potencialmente perigosas. Assim, verificámos que 10,2% das remoções de vídeo foram por segurança infantil, enquanto que o chamado material de abuso sexual infantil (CSAM) ,representa uma pequena fracção dentro de 1% do conteúdo que removemos.
Tornar os comentários mais seguros
Tal como acontece nos vídeos, usamos uma combinação entre tecnologia de detecção inteligente e revisão humana para sinalizar, rever e remover spam, discursos de ódio e outros abusos nos comentários.
Desenvolvemos ferramentas que permitem aos criadores moderar comentários nos seus vídeos. Por exemplo, criadores podem reter todos os comentários para revisão ou reter automaticamente comentários que contenham hiperligações ou possam conter conteúdos ofensivos. Mais de um milhão de criadores podem agora utilizar estas ferramentas para moderar os comentários nos seus canais.
Também temos vindo a reforçar a nossa actuação nos comentários que não respeitam as regras da comunidade:
- Entre Julho e Setembro de 2018, as nossas equipas removeram mais de 224 milhões de comentários que infringiam as regras da nossa comunidade.
- A maioria das remoções era spam e o número total de remoções representam uma fracção dos milhares de milhões de comentários que são feitos no YouTube a cada trimestre.
- À medida que removemos mais comentários, reparamos que o nosso ecossistema de comentários está a crescer e não a diminuir. Os utilizadores diários estão hoje 11% mais propensos a fazer comentários do que no ano passado.
Estamos empenhados em garantir que o YouTube continua a ser uma comunidade vibrante onde a criatividade floresce, os criadores independentes têm uma forma de vida e as pessoas se ligam a nível mundial em torno das paixões e interesses comuns. Isto significa que será inabalável a nossa luta contra os maus actores na nossa plataforma e nos nossos esforços para remover conteúdos infractores antes dos mesmos serem vistos. Sabemos que há mais trabalho para fazer e vamos continuar a investir em pessoas e tecnologia para remover rapidamente conteúdos que infringem as regras e as nossas políticas. Estamos ansiosos por poder em breve partilhar mais atualizações sobre estes relatórios.
Post A Comment:
0 comments: