RONDONÓPOLIS

TECNOLOGIA

Microsoft anuncia fim de reconhecimento facial que rastreia emoções

Publicados

em

source
Microsoft cancelou funcionalidade de inteligência artificial
Unsplash/Jenny Ueberberg

Microsoft cancelou funcionalidade de inteligência artificial

A Microsoft anunciou nesta terça-feira (21) que está retirando de sua inteligência artificial de reconhecimento facial a capacidade de rastrear as emoções dos usuários, entre outras características. Segundo a empresa, isso acontece por questões relacionadas à privacidade e à possibilidade da tecnologia reproduzir estereótipos.

“Retiraremos os recursos de análise facial que pretendem inferir estados emocionais e atributos de identidade, como sexo, idade, sorriso, barba, cabelo e maquiagem”, anunciou Sarah Bird, gerente de produto do Azure AI, da Microsoft.

“No caso da classificação de emoções especificamente, esses esforços levantaram questões importantes sobre privacidade, a falta de consenso sobre uma definição de ‘emoções’ e a incapacidade de generalizar a ligação entre expressão facial e estado emocional em casos de uso, regiões e dados demográficos. O acesso da API a recursos que preveem atributos confidenciais também abre uma ampla gama de maneiras de uso indevido, incluindo submeter pessoas a estereótipos, discriminação ou negação injusta de serviços”, justificou.

A Microsoft afirma que novos clientes não poderão ter acesso ao “sistema de uso geral na Face API que pretende inferir estados emocionais, sexo, idade, sorriso, barba, cabelo e maquiagem” a partir desta terça. Já para clientes antigos, a descontinuação deverá ocorrer até 30 de junho de 2023.

O anúncio da Microsoft vem em um momento de crescente preocupação a respeito dos sistemas de reconhecimento facial, que podem invadir a privacidade das pessoas.

COMENTE ABAIXO:
Propaganda

TECNOLOGIA

Meta negligencia Brasil no combate à desinformação, diz ex-funcionária

Publicados

em

Frances Haugen em audiência na Câmara dos Deputados
Reprodução/YouTube/Câmara dos Deputados

Frances Haugen em audiência na Câmara dos Deputados

Frances Haugen, ex-funcionária e delatora do Facebook, responsável por vazar os  Facebook Papers no ano passado, afirma que a Meta não dá a devida atenção às eleições brasileiras, permitindo a circulação de desinformação e discurso de ódio em suas plataformas Facebook, Instagram e WhatsApp.

“O Facebook não tem transparência em relação a quais sistemas de moderação de conteúdo existem e em quais idiomas. Eu sou muito cética de que há cobertura igual em inglês e em português brasileiro”, disse ela, durante audiência pública das comissões de Legislação Participativa e de Ciência e Tecnologia, Comunicação e Informática da Câmara dos Deputados na tarde desta terça-feira (5).

Haugen argumentou que, durante as eleições estadunidenses de 2020, o Facebook adicionou diversas camadas de proteção contra desinformação na rede social, e que algo semelhante deveria ser feito no Brasil. Segundo ela, as medidas podem ser implementadas com facilidade, mas a empresa opta por não fazê-lo porque isso poderia diminuir seus lucros.

“O Brasil merece o mesmo nível de investimento que houve nos Estados Unidos, ou ainda maior, já que o processo eleitoral brasileiro depende muito mais dos aplicativos da empresa do que o norte-americano”, argumentou, lembrando da importância do WhatsApp no contexto eleitoral do Brasil.

Leia Também:  Após Brasília, 5G chegará a SP, BH, Porto Alegre e João Pessoa

Haugen afirma que a Meta poderia implementar soluções tanto no Facebook quanto no WhatsApp e no Instagram a tempo de ajudar a garantir a democracia nas eleições presidenciáveis deste ano. Para ela, não fazê-lo é uma “falta de respeito” com o povo brasileiro.

Falta de transparência

Durante a audiência pública, a ex-funcionária do Facebook afirmou que a empresa age sem transparência, e que esse é um dos maiores motivos pelos quais ela não modera conteúdo adequadamente.

“O Facebook intencionalmente tem negado acesso às suas informações. Eles não querem que o ecosssistema de regulação opere, não querem que reguladores entendam como a plataforma funciona. Eles escondem todas as coisas importantes”, disse.

Haugen lembra que não é possível saber, por exemplo, como funciona a moderação de conteúdo feita por pessoas. Pesquisas já mostram que as redes sociais, no geral, não têm o mesmo rigor ao moderar conteúdo em inglês e em outras línguas, negligenciando países como o Brasil, onde desinformação e discurso de ódio circulam mais livremente.

“Se eu soubesse que há uma ou duas pessoas trabalhando nas eleições brasileiras, eu ficaria surpresa”, afirmou Haugen. “É inaceitável que eles operem às escuras quando há esse histórico de negligenciar o Brasil”.

Nesse sentido, a ex-funcionária elogiou o PL das Fake News, que deve ser votado pela Câmara dos Deputados em breve. Para ela, há alguns dispositivos falhos no texto, mas a exigência de transparência das plataformas é essencial. Por isso, ela aconselhou a aprovação do PL, que considera “uma exclente oportunidade para o Brasil” avançar na legislação sobre redes sociais.

“O Brasil merece saber quanto esforço está sendo investido por parte do Facebook em moderação de conteúdo e segurança, e merece saber até que nível há equidade linguística entre inglês e português”, opinou.

Fonte: IG TECNOLOGIA

COMENTE ABAIXO:
Continue lendo

RONDONÓPOLIS

mato grosso

POLICIAL

MAIS LIDAS DA SEMANA