Se você não é negro, provavelmente não sabe disso, mas o reconhecimento facial falha especialmente ao reconhecer os afrodescendentes. Foi por isso que chamou minha atenção quando o Google publicou um vídeo para promover o Pixel 4, no qual uma mulher negra aparece em um quarto escuro. Ela aproxima o rosto do telefone e ele abre.
É claro que o mais impressionante não foi o desbloqueio em si, já que a tecnologia existe há anos. A novidade foi que ele fez isso com uma mulher negra. E o vídeo parece dizer que o Google resolveu o problema. Suponho que sejam boas notícias, mas também nos deixa algumas reflexões para o futuro, se decidirmos continuar usando essa tecnologia, o que não está muito claro no momento. Recentemente, Amazon, IBM e Microsoft decidiram restringir ou interromper a venda da tecnologia de reconhecimento facial. Cidades como São Francisco e Cambridge, onde estão Harvard e MIT, consideradas o coração da tecnologia, também proibiram seu uso.
Algumas considerações:
- Na tecnologia, existem distorções. Se a tecnologia atual não consegue reconhecer os rostos das mulheres de ascendência africana, é porque elas não foram incluídas no banco de dados para treinar o algoritmo. Se elas não foram incluídas, é porque os engenheiros não pensaram nisso. E, se isso não lhes ocorreu, é porque eles não vivem em um “mundo” no qual os negros são representativos.
- Como vão criar os bancos de dados agora? Vão sair e escanear rostos de pessoas de diversas populações? Soa estranho, não é? Meio distópico … Não sou contra isso, pelo contrário, a tecnologia deve ser inclusiva, mas é necessário ser muito claro e transparente ao determinar: a) quais dados estão coletando, b) de que maneira, c) com que consentimento d) a que preço. A metodologia seria semelhante ao que é feito com pesquisas para fins científicos.
- A forma é importante e a preocupação justificada. As populações étnicas foram violadas em muitas ocasiões. Escravidão, encarceramento em massa, as leis de Jim Crow, experimentos médicos, até os episódios que Vargas Llosa descreve Tempos Difíceis (tradução livre de Tiempos Recios). Certamente, não seria a primeira vez que minorias seriam usadas para aperfeiçoar novas técnicas ou tecnologias.
Temos falado há alguns anos sobre tecnologia ética ou justa. O reconhecimento facial é um bom exemplo da necessidade de fazer isso. Para usar essa tecnologia, devemos fazê-lo de maneira ética. Duas semanas atrás, este blog teria terminado assim. Mas apenas alguns dias atrás, Pratyusha Kalluri, de Stanford, e fundadora da Radical AI Network, publicou uma coluna na Nature na qual pediu para pararmos de falar sobre tecnologia justa ou ética. Ela pede uma abordagem muito mais radical, cito:
“Não pergunte se a inteligência artificial é boa ou justa, pergunte como ela muda o poder.” Pratyusha Kalluri
Ela propõe que aqueles com maior probabilidade de serem prejudicados pela inteligência artificial; isto é, mulheres, pessoas de ascendência africana, povos indígenas, pessoas com deficiência e pessoas com renda mais baixa participem dos projetos. Não se trata de tecnologia ética, mas de empoderar e envolver aqueles que são mais afetados por sua implementação. Convido você a conhecer melhor essa abordagem e, se tiver ideias sobre como adotar essa abordagem em nossa região, escreva para fairlac@iadb.org.
Leave a Reply