#41 26/01/2021 tecnologia

Acessibilidade nas redes sociais: Facebook atualiza recurso de descrição de fotos

O Facebook anunciou uma atualização da plataforma que melhora a descrição de fotos postadas a usuários com deficiência visual. O sistema de inteligência artificial especifica a localização e posição de objetos, e é capaz de fazer diferenciações entre alimentos ou até mesmo classificar estilos de eventos e vestuários utilizados pelos integrantes da foto.

A nova versão foi apresentada essa semana e deve fornecer mais detalhes dos arquivos. O recurso foi nomeado como “automatic alternative text” (ou AAT) e usa bilhões de fotos e hashtags de Instagram para identificar os principais elementos da imagem. Se antes a ferramenta trabalhava com 100 descrições conceituais, agora a solução envolve mais de 1.200 itens do tipo.

Entre as particularidades do novo sistema está a classificação de eventos. Ele pode, por exemplo, identificar que determinada imagem retrata cenas de um casamento até mesmo sem a noiva aparecer na foto. O detalhamento dos itens é um dos grandes atrativos, pois a ferramenta pode incluir informações sobre a posição, o tamanho relativo e quantas pessoas estão presentes.

A solução desenvolvida pelo Facebook para promover a acessibilidade de deficientes visuais identifica também se a foto foi registrada em um ambiente interno (numa casa) ou externo (na natureza).

O Facebook diz que a nova versão da ATT pode ainda gerar erros nas descrições ao excluir conceitos que não é capaz de reconhecer, mas a atualização com certeza representa um salto em acessibilidade à rede social.

Apenas um início

Apesar dos avanços e diferenciais conquistados com a ferramenta, o conceito de texto alternativo remete um pouco aos primórdios da internet, uma vez que o recurso de descritivo de imagens consome muita largura de banda e deixa a conexão um pouco mais lenta.

A utilização de textos alternativos para a descrição das imagens ajudou as pessoas cegas ou deficientes visuais a navegar na internet, pois pode ser usada por um software leitor de tela para gerar descrições faladas de imagens.

A primeira versão da ATT foi lançada há cinco anos e aproveitou a expertise do Facebook para a definição da estrutura atual. Para o desenvolvimento, foram utilizados dados marcados manualmente. A partir disso, treinaram uma rede neural usando milhões de exemplos.

Então, no início, a solução reconhecia apenas 100 conceitos comuns, como “árvore”, “montanha” e “ao ar livre”. E, como as pessoas que usam o Facebook costumam compartilhar fotos de amigos e familiares, agora, as descrições de AAT usam modelos de reconhecimento facial que identificam pessoas (desde que estas deem consentimento explícito).