Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.
Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.
O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.
A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.
Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.
(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)