Alguns filtros de celular, que mudam a fisionomia das pessoas, podem se tornar febres instantâneas, como foi o caso do Faceapp, que criou a versão idosa de milhares de pessoas jovens ao redor do mundo e de muitas celebridades negras brasileiras.
Porém outras alterações realizadas por esses filtros são usadas de forma cotidiana por pessoas em suas redes sociais. Obviamente é interessante ter recursos que diminuam nossas imperfeições, ou ainda destaque os pontos fortes, mas se você é negra ou negro e reparar os que os aplicativos independentes ou filtros de Instagram, Snapchat fazem com seu rosto, você poderá notar algo que vai além de corrigir o que você não gosta.
Notícias Relacionadas
Continuamos sendo os únicos representantes dos nossos sonhos: 25 profissionais negros que você precisa conhecer
Brega funk, futebol de várzea e turismo de favela pelos olhos de diretores negros
Muitos filtros “embelezadores” afinam traços étnicos, como nariz largo e boca grossa e a grande maioria, clareia os tons de peles mais escuros, ou seja, uma versão mais bonita do seu rosto seria uma mais próxima de traços europeus e até asiáticos e mais distante dos seus traços originais africanos. Até na tecnologia a branquitude é soberana e o branco é o padrão. E isso já virou estudos e é chamado de Racismo Algorítmico.
Visão Computacional e Vieses Racializados – Branquitude como Padrão no Aprendizado de Maquina, é o artigo de Tarcízio Silva, Diretor de Pesquisa em Comunicação no IBPAD (Instituto Brasileiro de Pesquisas e Análises de Dados) e Mestre (UFBA) em Comunicação que trata dessa questão.
Repercutindo a febre do “filtro de velho”do Faceapp, Silva explica “Outra nota particularmente interessante foi emitida pelo CEO do aplicativo FaceApp. O aplicativo de edição de selfies possuía um filtro de “embelezar” o rosto dos usuários. Uma das principais edições automáticas era clarear a pele, gerando resultados aberrantes em fotos de pessoas negras ou indianas, por exemplo. Depois da divulgação dos problemas, Yaroslav Goncharov, CEO do aplicativo, alegou que é ‘um infeliz efeito colateral da rede neural subjacente causado pelo conjunto de dados de treinamento, não comportamento esperado’ . Como estamos falando de aprendizado de máquina (machine learning), os dados de treinamento são fator essencial em como o sistema vai performar“, detalhou Tarcízio.
Não menos importante é o fato que que esses aplicativos aparentemente inofensivos são fontes de coletas de dados que são vendidos para grandes empresas. Ainda de acordo com Tarcízio esses dados podem ser usados pelo governo americano para perseguir imigrantes, por exemplo.
Tudo muito fofo, mas nada inofensivo.
Notícias Recentes
Estudo aponta que 62% dos consumidores negros priorizam marcas com representatividade; Confira nossas dicas
Crianças autistas negras são 2,6 vezes mais propensas a receber diagnósticos errados antes do TEA