SóProvas


ID
5164279
Banca
VUNESP
Órgão
TJM-SP
Ano
2021
Provas
Disciplina
Português
Assuntos

    Será uma boa ideia ter armas que definem seus alvos e disparam os gatilhos automaticamente? Um robô capaz de selecionar contratados em uma empresa seria confiável? Como garantir que a tecnologia faça bem ao ser humano? Essas são algumas perguntas presentes no debate ético em torno da IA (inteligência artificial). O crescimento da área é acelerado e muitas vezes incorre em aplicações questionáveis.

    Diversos países correm para dominar a tecnologia visando benefícios comerciais e militares. Para isso, criam políticas nacionais a fim de fomentar a pesquisa e a criação de empresas especializadas na área. EUA, China e União Europeia são destaques nesse mundo.

    O caso chinês é o mais emblemático, com startups sendo incentivadas a desenvolver sistemas sofisticados de reconhecimento facial. O governo usa a tecnologia para rastrear algumas minorias, como os uigures, população majoritariamente muçulmana. Câmeras nas ruas e aplicativos nos celulares monitoram os passos dos cidadãos. A justificativa chinesa é pautada na segurança nacional: o objetivo é coibir ataques extremistas. O sistema de vigilância já foi vendido a governos na África, como o do Zimbábue.

    A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento. A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.

    Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.

(Raphael Hernandes. Inteligência artificial enfrenta questões éticas para ter evolução responsável. Disponível em: https://temas.folha.uol.com.br. Acesso em: 25.02.2020. Adaptado)

A associação, no texto, entre o uso da IA e a bioética está fundamentada na ideia de

Alternativas
Comentários
  • GAB. E

    restrição de atividades, com objetivo de revisão e regramento.

  • Assertiva E

    restrição de atividades, com objetivo de revisão e regramento. L17

  • "Nesse tempo, regras mais robustas devem ser criadas."

  • Gab. E

    • E) restrição de atividades, com objetivo de revisão e regramento.

    Trecho: (...)Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada.

        Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.

  • >>"A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. Outras ferramentas poderosas já precisaram do mesmo tratamento"(trecho extraído do texto).

    >>Impor limites = restringir, ou seja, vedar parcialmente.

    >>para tentar impedir que a coisa fuja do controle = para que a coisa não fuja do controle você precisa rever, refazer cálculos ou revisar.

    >>Gab: E

  • Gabarito E

    --> Eles podem suspender alguma atividade no mundo todo por um período determinado.

    Infere-se a restrição das atividades.

  • Achei difícil!

  • A questão avalia a capacidade de interpretação textual. O texto reflete sobre os limites da tecnologia e a ética em sistemas de inteligência artificial. Uma chave de interpretação importante está contida no quarto parágrafo: 
    “A discussão sobre ética no ocidente tenta impor limites à inteligência artificial para tentar impedir que a coisa fuja do controle. […] A bioética, que ajuda a estabelecer as regras para pesquisas em áreas como a genética, é frequentemente citada como exemplo a ser seguido. Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos. Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada."
    Analisando as opções, temos…
    a)  expansão de pesquisas, na expectativa de novas aplicações

    Expandir é o oposto de tentar impor limites à inteligência artificial. Sendo assim, não é coerente com o trecho destacado do texto. Errado.
    b)  troca de experiências, com perspectiva de compartilhamento de dados

    O compartilhamento de dados é um dos motivos para certa desconfiança sobre essas aplicações de inteligência artificial. Logo, essa troca de experiências não é um dos preceitos da bioética. Errado
    c) limitação de controle estatal, garantindo a independência da pesquisa.

    Essa possibilidade é coerente com relação à proteção da privacidade, mas não está respaldada no texto. Errado.
    D) verificação das bases científicas da IA, como medida de segurança.

    A relação entre a bioética e a inteligência artificial não está baseada na verificação das bases científicas, porque isso não foi apresentado no texto. O texto menciona uma possível “suspensão" de atividade por algum tempo, mas não uma verificação das bases científicas. Errado
    E) restrição de atividades, com objetivo de revisão e regramento.

    O último parágrafo menciona a ideia de banir o reconhecimento facial, por exemplo. Essa seria uma forma de restringir esse tipo de atividade. A ideia do consenso entre especialistas representa uma revisão do momento atual e a questão do regramento está inserida na última linha do texto, a partir de “regras mais robustas devem ser criadas". Sendo assim, o uso de IA e bioética está fundamentada na ideia de restrição de atividades, com objetivo de revisão e regramento. Correto.
    Gabarito da Professora: Letra E.
  • restrição de atividades, com objetivo de revisão e regramento.

  • Gabarito E

    Acertei mas confesso que fique na dúvida entre D e E.

  • mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.

    GAB E

  •  Essa ideia de pé no freio aparece na inteligência artificial. Um rascunho de documento da União Europeia obtido pelo site “Politico”, em janeiro, mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos. Nesse tempo, regras mais robustas devem ser criadas.

    letra e - restrição de atividades, com objetivo de revisão e regramento.

  • Excelente o comentário da professora do QC.

  • E) restrição de atividades, com objetivo de revisão e regramento. (Correto)

    restrição de atividades: no último parágrafo "... mostra que o grupo considera banir o reconhecimento facial em áreas públicas por um período de três a cinco anos."

    com objetivo de revisão: no penúltimo parágrafo "Uma boa forma de lidar com os riscos de grandes avanços sem impedir o progresso da ciência é por meio de consensos de especialistas, em congressos."

    regramento: na última linha do texto “Nesse tempo, regras mais robustas devem ser criadas".

  • "Eles podem suspender alguma atividade no mundo todo por um período determinado – uma moratória – para retomar a discussão no futuro, com a tecnologia mais avançada."

    GABARITO: E

  • ALTERNATIVA A – ERRADA – O que ensejou os debates acerca do uso da IA e sua relação com a bioética foi a falta de regramento e limites, que podem resultar em danos à privacidade e à liberdade.

    ALTERNATIVA B - ERRADA – O debate visa a regrar as pesquisas envolvendo IA, e não simplesmente a obter dados.

    ALTERNATIVA C - ERRADA – O problema que ensejou o debate não está relacionado à independência das pesquisas, mas sim na necessidade de regramento destas.

    ALTERNATIVA D – ERRADA - O problema que ensejou o debate não está relacionado à fundamentação científica das pesquisas, mas sim na necessidade de regramento destas.

    ALTERNATIVA E – CERTA – Como citado anteriormente, o debate visa a estabelecer limites e regramentos para as pesquisas envolvendo IA.