SóProvas


ID
3509671
Banca
FUVEST
Órgão
USP
Ano
2019
Provas
Disciplina
Inglês
Assuntos

TEXTO PARA A QUESTÃO

    Assigning female genders to digital assistants such as Apple’s Siri and Amazon’s Alexa is helping entrench harmful gender biases, according to a UN agency.
    Research released by Unesco claims that the often submissive and flirty responses offered by the systemsto many queries – including outright abusive ones – reinforce ideas of women as subservient.
    “Because the speech of most voice assistants is female, it sends a signal that women are obliging, docile and eager‐to‐ please helpers, available at the touch of a button or with a blunt voice command like ‘hey’ or ‘OK’”, the report said.
    “The assistant holds no power of agency beyond what the commander asks of it. It honours commands and responds to queries regardless of their tone or hostility. In many communities, this reinforces commonly held gender biases that women are subservient and tolerant of poor treatment.”
    The Unesco publication was entitled “I’d Blush if I Could”; a reference to the response Apple’s Siri assistant offers to the phrase: “You’re a slut.” Amazon’s Alexa will respond: “Well, thanks for the feedback.”
    The paper said such firms were “staffed by overwhelmingly male engineering teams” and have built AI (Artificial Intelligence) systems that “cause their feminised digital assistants to greet verbal abuse with catch‐me‐if‐you‐can flirtation”.
    Saniye Gülser Corat, Unesco’s director for gender equality, said: “The world needs to pay much closer attention to how, when and whether AI technologies are gendered and, crucially, who is gendering them.”
The Guardian, May, 2019. Adaptado.

Conforme o texto, em relação às mulheres, um efeito decorrente do fato de assistentes digitais reforçarem estereótipos de gênero é

Alternativas
Comentários
  • ALTERNATIVA B.

    ATENÇÃO: um efeito decorrente do fato de assistentes digitais reforçarem estereótipos de gênero é (a questão deseja que se identifique a consequência desse fato):

  • Trata-se de questão de interpretação de texto na qual o candidato deve selecionar a opção que apresenta um efeito decorrente do fato de assistentes digitais reforçarem estereótipos de gênero.

    Registre-se que o texto é uma adaptação de matéria publicada pelo jornal The Guardian em maio de 2019. O texto traz resultados de pesquisa, divulgada pela Unesco, segundo a qual a atribuição do gênero feminino a assistentes digitais reforça os estereótipos de gênero. De acordo com a pesquisa, respostas frequentemente submissas e sedutoras dadas pelas assistentes digitais consolidam a ideia de que as mulheres são subservientes e tolerantes a um tratamento inadequado. O artigo esclarece que tais sistemas de Inteligência Artificial (IA) foram desenvolvidos por equipes predominantemente masculinas. Ao final, a matéria traz a declaração de Saniye Gülser Corat, diretora da Unesco para igualdade de gênero, esclarecendo que o mundo deve estar atento à atribuição de gênero nas tecnologias de IA.

    Vejamos as alternativas.

    Alternativa A.
    FALSA. Efeito é o mesmo que resultado ou produto. A inclusão de uma única voz nos dispositivos não é um resultado do fato de assistentes digitais reforçarem estereótipos de gênero; é, sim, parte da causa.

    Alternativa B.
    VERDADEIRA. A pesquisa verificou que tais assistentes digitais frequentemente respondem de forma submissa e sedutora, reforçando a ideia de que as mulheres são subservientes e tolerantes a um tratamento inadequado. Como exemplo de resposta que valida o assédio sexista, o texto cita o próprio título do relatório de pesquisa “I'd Blush if I Could", que pode ser traduzido como “Eu ficaria corada, se pudesse"; trata-se de uma referência à resposta que a assistente Siri da Apple oferece à frase: “Você é uma vagabunda". Alexa, da Amazon, responderá ao mesmo tratamento dizendo: “Bem, obrigada pelo feedback."
    Eis um trecho que corrobora a resposta: “Research released by Unesco claims that the often submissive and flirty responses offered by the systems to many queries – including outright abusive ones – reinforce ideas of women as subservient."

    Alternativa C.
    FALSA. O texto não versa sobre o poder da influência positiva sobre as pessoas. Como vimos, ele discorre sobre o reforço dos estereótipos de gênero pelas assistentes digitais. Trata-se, pois, de influência negativa.

    Alternativa D.
    FALSA. O texto não aborda vendas e/ou customização de robôs.

    Alternativa E.
    FALSA. Este tema também não é abordado pelo texto.


    GABARITO DO PROFESSOR: LETRA B.