-
Do estudo, destacamos o seguinte trecho: “Com efeito, a responsabilização penal do proprietário do veículo somente ocorreria em casos bem excepcionais, quando constatado dolo ou, se houver tipo penal específico, culpa. Assim, por exemplo, se uma pessoa vier a óbito após ser atropelada por um veículo autônomo, o proprietário do veículo poderia ser responsabilizado por crime de homicídio culposo, caso seja comprovado que ele não realizou as manutenções periódicas devidas no veículo ou não reparou eventual defeito evidente que o veículo apresentava”. Na hipótese narrada no enunciado da questão, o condutor de um veículo autônomo é considerado o sistema automatizado como um todo delegando então a responsabilidade de uma pessoa física devidamente capacitada e habilitada a este sistema.
https://blog.mege.com.br/wp-content/uploads/2022/01/TJ-AP-prova-comentada.-Curso-Mege..pdf
-
????????????????
-
fgv é fod@
-
Quem trata muito bem sobre o tema são os professores Leonardo de Bem e João Paulo Martinelli, na obra "Direito Penal - Lições Fundamentais - Crimes Contra a Pessoa" (2021, 3º ed, p. 196-197). Em suma:
> Ainda que uma máquina seja programável e passível de aprendizagem, não é possível lhe atribuir culpabilidade, pois isso exige consciência, o que ela não tem. Logo, é preciso descobrir quem e como se deve punir em caso de danos.
> Não é possível atribuir elemento subjetivo a máquinas autônomas. Os robôs não são agentes morais genuínos (não possuem culpabilidade), mas apenas simulam comportamentos morais (de pessoas). A programação, conforme análise de méritos e deméritos (o que fazer e o que não fazer) diz respeito a comportamentos análogos (e não iguais) à autodeterminação humana. Assim, robôs são máquinas programadas por humanos (e só estes possuem culpabilidade).
> Por trás de uma máquina há uma pessoa física que a programou e inseriu dados. Então, é preciso distinguir a ocorrência de crime doloso ou culposo. No crime doloso, não há grandes desafios, bastando verificar a consciência/vontade do programador da máquina para que esta causa danos propositadamente. No crime culposo, é preciso comprovar (a) resultado típico relevante e previsível e (b) ausência de cuidados para evitar este resultado. Então, quem introduz uma máquina com inteligência não pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis com base na imprevisibilidade. Incidirá normalmente a responsabilidade penal culposa.
> Quando há "algoritmos de acidente" (que analisam/selecionam a vítima), haverá responsabilidade penal. Ainda que haja programação para selecionar a "melhor" vítima, haverá responsabilidade do programador mesmo assim, se identificada a culpa.
Logo, está correto dizer que "os denominados 'algoritmos de acidente', aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento", porque se trata de uma máquina que teve um programador por trás e, havendo comprovação de culpa por parte deste, haverá culpabilidade da pessoa física.
-
Caramba!! Essa me fez esquecer até que sei ler.
-
Muitcho loko. Futuro é isso aí mesmo. Hoje já vemos crimes eletrônicos e virtuais. No futuro próximo haverá crimes cibernéticos, robóticos, e por aí vai.
-
O filtro está em Robótica?
-
GABARITO - C
Só achei um pouco temerário da parte da banca colocar a palavra "inevitável" no período.
"os denominados “algoritmos de acidente”, aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento;"
Ora, se a colisão é de fato inevitável, então não há dolo nem culpa, excluindo-se a conduta. Não há como atribuir a conduta do programador por trás da máquina como negligente, imprudente ou imperita no caso. Obviamente, pode o agente responder no âmbito cível, se for o caso, mas acredito que não seja possível na esfera penal.
No mais, excelentes as contribuições do colega Klaus.
-
oi?!?
-
Ao pouco que li sobre o assunto. Segue uma contribuição:
Não é possível atribuir elemento subjetivo a máquinas autônomas. Os robôs não possuem culpabilidade, apenas simulam comportamentos morais (de pessoas).
Essas são culpáveis e não aquelas.
-
Qual o equívoco da alternativa E?
A alternativa narra um risco atual, não causado pelo programador/veículo, o perigo não poderia ser evitado, há sacrifício de bem jurídico menor ou igual (uma vida para salvar várias)...
Estado de necessidade CP. Art. 24 - Considera-se em estado de necessidade quem pratica o fato para salvar de perigo atual, que não provocou por sua vontade, nem podia de outro modo evitar, direito próprio ou alheio, cujo sacrifício, nas circunstâncias, não era razoável exigir-se.
-
Não sou extremo conhecedor do assunto, mas acho difícil aceitar que essa solução seja pacífica na doutrina, até porque o tema é bastante incipiente.
Se o acidente é inevitável com diz o enunciado, sacrificar 1 vida para salvar outras 10 seria um evidente caso de estado de necessidade, até porque na hora que o acidente ocorrer o perigo é atual, não provocado pela vontade da IA e que não poderia de outro modo evitar, exatamente nos termos do art. 24 do Código Penal...
Se a doutrina admite a legítima defesa pré-ordenada, como no caso dos ofendículos (ex.: cerca elétrica sobre o muro), porque não sustentar um possível estado de necessidade pré-ordenado, sobretudo nesses casos de robôs autômatos que têm em seu código-fonte programação para fazer uma escolha de vida ou morte?
Se fosse um humano no lugar da máquina seria evidentemente um caso de exclusão da ilicitude por estado de necessidade...
Agora por ser uma máquina, que como sabemos não tem culpabilidade, seu programador, que em horas e horas de programação e testes teve a preocupaçõa de programar ela para salvar o maior número possível de vítimas, irá ser responsabilizado criminalmente por um acidente inevitável, embora tenha escolhido sacrificar apenas um bem jurídico vida ao invés de dezenas de outras vidas?
Ora, abre-se margem para um direito penal objetivo.
-
a FGV escolhe o gabarito que der na telha
-
Pq o tem e não está correto ?
-
Valei-me, padim ciço!!!!!!!!!!!!!
-
Ou seja, meus estudos servem pra responder questões até o ano de 1995.
-
Questão interessantíssima! Lembro de quando houve uma discussão em sala de aula, sobre esse exato tema, pois havia tido um congresso com o professor que estudou esse pensamento jurídico. Os comentários do Klaus são excelentes por si sós.
-
por que a E está errada? Quem disse que está errada? Assertiva simulou uma situação que nem consigo visualizar na realidade atual, mas ela está lá.
-
Prova de engenharia robótica, top!
-
Colegas, compartilho algumas reflexões sobre essa questão com vocês.
Veículos autônomos são aqueles motorizados cujo movimento no trânsito é, de diversas formas, determinado por algoritmo préprogramado, e não por pessoa sentada ao volante. Por trás de uma máquina autônoma, há uma pessoa física que, de alguma forma, interferiu em seu funcionamento, normalmente pela programação e inserção de dados. Assim, em relação à imputação subjetiva do resultado, se reconhece a possibilidade de ocorrência de crime doloso ou culposo.
Nas hipóteses de punibilidade culposa, é correto afirmar que:
A) quem introduz no mundo um agente inteligente, com capacidade de aprendizagem conforme as informações sejam inseridas, pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis;
Alternativa incorreta. Não é a imprevisibilidade ou reações equivocadas que irão afastar a responsabilidade penal. Nesse caso, não existe diferença entre os institutos de responsabilidade já existentes no direito, que não incluem essas hipóteses como excludentes.
B) os robôs com inteligência artificial são agentes morais genuínos e sua programação interna funciona segundo um sistema de “méritos” e “deméritos” para certas decisões que eles tomam;
Alternativa incorreta. Os robôs com inteligência artificial não são agentes morais genuínos, decisões morais são exclusivas dos seres humanos.
C) os denominados “algoritmos de acidente”, aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento;
Essa é a alternativa correta. Novamente, a imprevisibilidade ou inevitabilidade não são excludentes de responsabilidade. Além disso, como veremos, o estado de necessidade é uma circunstância de decisão exclusivamente humana. Uma máquina pré-programada não pode fazer juízo de sacrifício de bem jurídico, somente um ser consciente e autodeterminado moralmente pode fazer esse juízo.
D) os robôs com inteligência artificial são máquinas que completam suas tarefas conforme sua programação, que equivale à autodeterminação humana sobre razões morais;
Alternativa errada, máquinas com inteligência artificial não fazem juízos morais, não são autodeterminadas.
E) a possibilidade de programar o veículo para escolher uma vida para sacrificar, com o intuito de salvar outras, quando o acidente for inevitável, atrai a incidência do estado de necessidade, excluindo a responsabilidade do programador.
Essa certamente é a alternativa que gerou mais dúvidas, mas as máquinas por não fazerem juízos morais de sacrifício de bens jurídicos não podem estar em estado de necessidade. Não é possível programar estado de necessidade, porquanto exige um juízo exclusivamente humano do bem jurídico a ser sacrificado, no momento da ação/omissão.
-
Que doidera essas questões
-
Considerando que, no Código Penal Brasileiro prevê que:
a) de acordo com o seu art. 13, a responsabilidade penal é imputada a quem deu a causa ao resultado;
b) de acordo com o seu art. 29, quem, de qualquer modo, concorre para o crime incide nas penas a este cominadas, na medida de sua culpabilidade;
c) a criação do perigo pelo sujeito que introduz o agente inteligente poderia, em tese, criar um dever de garantia, temos que:
A) INCORRETO. A questão não indica a ocorrência de uma concausa, por isso não há que se falar em corte do nexo causal, o que ocorreria, caso houvesse narrativa de uma causa independente ou de uma causa superveniente relativamente independente. Desse modo, tendo o sujeito introduzido o agente inteligente, consideramos que aquele deu causa ao resultado, de onde não se pode resultar negativa de responsabilidade penal.
B) INCORRETO. Não há que se falar em responsabilidade penal de robôs com inteligência artificial. A conduta humana voluntariamente praticada é elemento essencial da responsabilidade penal, não podendo ser aplicada à máquinas com inteligência artificial.
C) CORRETO. Tendo o sujeito introduzido o agente inteligente, consideramos que aquele deu causa ao resultado, de onde não se pode resultar negativa de responsabilidade penal.
D) INCORRETO. A conduta humana Disponível em: https://repositorio.pucrs.br/dspace/bitstream/10923/20045/2/tica_e_Inteligncia_Artificial_da_possibilidade_filosfica_de_Agentes_Morais_Artificiai.pdf “O princípio da moralidade somente pode se basear na ação livre, racional e autônoma, ou seja, na capacidade da pessoa ser sujeito de seus atos, responsável por suas consequências e comprometida na busca de seus fins.
E) INCORRETO. Disponível em: https://www.ibccrim.org.br/noticias/exibir/8736. “Levando em conta a prevalência do dever de omissão, ainda mais em um ambiente como o trânsito, que se baseia em grande medida na expectativa de comportamentos conforme as regras (HEVELKE; NIDA-RÜMELIN, 2015, p. 222), não parece haver justificativa alguma para reconhecer a incidência da excludente quando a programação direcionar o veículo a atingir terceiros alheios à situação de perigo original. Se o comando geral “não mate” abrange todas as alternativas de resolução do caso de que dispõe o algoritmo, só seria prima facie justificável que ele mantivesse o veículo no curso original, ou seja, cumprisse com o dever de omissão de não atingir terceiros e não o dever comissivo de desviar o veículo da eminente colisão. Porém, caso se admitisse isso, seria questionável a necessidade prática de se empregarem algoritmos que determinam a direção do veículo, visto que este deveria sempre se manter no curso original”.
-
A E me parece errada pq o comando quer uma punibilidade culposa, e no estado de necessidade não há ilicitude muito menos punibilidade.
Agora sobre veículos autônomos e responsabilidade penal já deve ter, mas eu não encontrei, algum posicionamento jurisdicional sobre isso. Se alguém encontrar por favor compartilhe aqui com a gente.
-
Como disse os colegas, isso vai ser o futuro, imagina voce programar um carro para cometer atropelamento toda vez que ver um estuprador. Será qual crime? vai ser dolo, culpa, quem responde? o programador? a maquina?.. e se a maquina deu pane e passou por cima de uma criança? e se não achar o programador, ou dono do carro?..logo nossa lei vai ter varias mudanças.
Só acho que essa questão deveria vir em 2092.kkkk
-
Alguém sabe o erro da letra A?
Observem o comentário do Klaus:
"No crime culposo, é preciso comprovar (a) resultado típico relevante e previsível e (b) ausência de cuidados para evitar este resultado. Então, quem introduz uma máquina com inteligência não pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis com base na imprevisibilidade. Incidirá normalmente a responsabilidade penal culposa."
Observem a alternativa A:
"quem introduz no mundo um agente inteligente, com capacidade de aprendizagem conforme as informações sejam inseridas, pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis;"
-
Buguei!
-
Questão Matrix, combinada com Exterminador do Futuro.
-
Menino, qual foi a droga que "exterminador" usou para elaborar essa questão??
-
BANCA MALDITA.
-
Valha-me Deus! Dia 20/02 tenho uma prova da FGV. Sairei de lá como, depois de ler uma questão dessa?
-
Bem vinda FGV a mais uma questão para Investigador da PCRJ.
-
essa pandemia parece que piorou o nível das questões.. credo
-
SOCORROOOOOO!!!!!!
-
No começo não entendi nada, no final, parecia que estava no começo. kkkkkkkkkkkkkkkkk
-
A alternativa "E", na forma como foi redigida, parece a mais correta. O acidente inevitável, por usa própria natureza, não decorre de culpa do programador ou do veículo, de modo que há claro estado de necessidade - agressivo ou defensivo.
A alternativa "C", por outro lado, ao subentender que necessariamente haverá responsabilidade penal, torna a questão equivocada, ao menos na minha leitura.
Por conta do tema, tinha tudo para ser uma ótima questão. Uma pena.
Em todo caso, conforme comentado em outras questões, o que mais se destaca nessa prova é a dificuldade redacional dos examinador. É evidente que a seleção precisa identificar candidatos que consigam vencer as peças quase criptografadas com as quais nos deparamos no dia a dia forense, porém o problema nessa prova não foi em razão de alguma busca por ambiguidade deliberada a fim de melhor avaliar os candidatos, mas de efetiva má qualidade das assertivas.
Alternativas como essa, a propósito, costumam me remeter a figuras de golden boys "craques" que estudam 10 horas por dia coisas como "Técnicas de Memorização do Sun Tzu para Concursos" ou algo parecido, acertam 90% das provas, porém, uma vez empossados no cargo, quando diante do primeiro processo real que veem em toda vida, precisam chamar algum analista para entenderem o que está diante deles, compreenderem o que realmente precisam fazer e redigir tudo isso de modo inteligível.
-
Isso é direito penal?
-
Acertei pela lógica. É óbvio que o cara ainda vai responder, mesmo pela aquela situação
-
Acho que em observância ao princípio da estrita legalidade em direito penal, por não haver lei ainda regulamentando e, principalmente, punindo tal acontecimento, creio que essa questão não deveria ter gabarito.
-
ácido o cara da banca não usa, né?
-
SENHOR!
-
oi???????????????
-
não erro mas.
-
Que questão é essa
-
Questão pesada… Mas o Klaus Negri Costa elucidou bem o gabarito.
-
Quem acertou e ficou feliz dá um jóia...!!
-
Acertei a questão, contudo, exige um alto grau de abstração. Enunciado imenso fico imaginando controlar todas essas variáveis no dia da prova.
-
Interessante que, segundo a questão, a inevitabilidade do resultado, pela inexigibilidade de conduta diversa, não é invocável pelo programador.
Além disso, a ausência de previsão, objetivamente falando, segundo entendimento desta doutrina, não pode ser invocado pelo agente que cria inteligência artificial. Nessa lógica, seria possível imputar ao programador o crime de racismo, pela ocorrência de algoritmos que pré-selecionam consumidores de determinado bem ou serviço, ou que direcionam determinado objeto de consumo a pessoas não homossexuais, negras ou de determinado grupo étnico ou religioso.
Parece-me, e posso estar equivocado, que imputa-se o resultado pelo risco, e no caso de algoritmos o risco deveria ser zero, não podendo sequer haver programação pré-definida para escolhas trágicas (Ex: seria vedado de antemão selecionar o salvamento de criança saudável em detrimento de idoso doente terminal em caso de inevitável colisão causada por culpa exclusiva de terceiro).
Se fosse questão para o MP, acredito que seria nula, por violar Resolução específica do CNMP que veda este tipo de arguição em questão objetiva (doutrina minoritária que não é indicada expressamente como tal).
-
Decifrando os meandros da responsabilidade de Skynet
-
FGLixooooo
-
O pessoal digita TUDO, menos o gabarito, no caso é o ITEM C. ITEM C. ITEM C. ITEM CCCCCCCC
-
Questão interessante. Só a título de curiosidade, no livro "21 lições para o século 21" (Yuval Noah Harari) é feita uma abordagem sobre o carro filosófico (em situação bastante semelhante com a da questão). Veja-se:
Pode-se dizer que algoritmos jamais poderão tomar decisões importantes por nós, porque decisões importantes normalmente envolvem uma dimensão ética, e algoritmos não entendem de ética. No entanto, não há razão para supor que os algoritmos não serão capazes de superar o ser humano médio mesmo na ética. Já hoje em dia, à medida que dispositivos como smartphones e veículos autônomos tomam decisões que costumavam ser monopólio humano, eles começam a se deparar com o mesmo tipo de problemas éticos que têm perturbado os humanos por milênios.
Por exemplo, suponha que dois garotos correndo atrás de uma bola vejam-se bem em frente a um carro autodirigido. Com base em seus cálculos instantâneos, o algoritmo que dirige o carro conclui que a única maneira de evitar atingir os dois garotos é desviar para a pista oposta, e arriscar colidir com um caminhão que vem em sentido contrário. O algoritmo calcula que num caso assim há 70% de probabilidades de que o dono do carro — que dorme no banco traseiro — morra. O que o algoritmo deveria fazer?
[...]
Os algoritmos de computação, no entanto, não foram moldados pela seleção natural, e não têm emoções nem instintos viscerais. Daí que em momentos de crise eles poderiam seguir diretrizes éticas muito melhor que os humanos — contanto que encontremos uma maneira de codificar a ética em números e estatísticas precisos. Se ensinarmos Kant, Mill e Rawls a escrever um programa, eles poderão programar cuidadosamente um carro autodirigido em seus acolhedores laboratórios, e ter a certeza de que o carro seguirá seus comandos na rua. Com efeito, todo carro será dirigido por Michael Schumacher e Immanuel Kant combinados numa só pessoa.
Assim, se você programar um carro autodirigido para que pare e ajude estranhos em apuros, ele fará isso aconteça o que acontecer (a menos, é claro, que você insira uma cláusula de exceção para determinados cenários). Da mesma forma, se seu carro autodirigido estiver programado para desviar para a pista oposta a fim de salvar os dois garotos que estão em seu caminho, pode apostar sua vida que é exatamente isso que ele fará. O que significa que, ao projetar seus carros autodirigidos, a Toyota ou a Tesla vão transformar um problema teórico de filosofia da ética num problema prático de engenharia.
-
Gente, como assim ???
-
"VISH, QUE ONDA É ESSA MERMÃO, ESSE BICHO QUER ARRIAR A LOMBRA DO CAAAARA" (meme)
KKKKKKKKKKKKK
-
que tipo de questão é essa?? estamos em que anos mesmo, 2050??
-
Tava estudando penal e agr n sei mais que diabos tô estudando filosofia tbm
-
Saudades, Cespe!
-
FGV viaja mais q a lombra do brownie de Jeri.
-
2050 é a concretização do projeto Bilderberg.
500 milhões ceifadas.
Vamos estudar a legislação do TPI.
-
que questão é essa? kkkkkkk..
-
Meu Deus, que questão é essa!
-
mds, até teoria do exterminador do futuro tem q saber agora pra passar em concurso
-
ai, achei bizarro, mas que bizarro legal, amei
-
Nem quero ser juiz mesmo.
-
Me senti nos filmes futuristas e acertei de forma estelar!!!!!!!!!!!!! kkkkkkkkkkkkkkkkkkkk
Mas que é uma questão que empolga é!!! kkkkkkkkkkkkkkkkk
-
O EXAMINADOR USOU UMA DORGA CIBERNÉTICA VENCIDA ANTES DE ELABORAR ESSA QUESTÃO!!
-
alguém explica que matéria essa, eu coloquei no filtro direito penal kkkkkkk
-
Eu nem queria ser juiz mesmo.. kkk
-
Isso aqui tá mais complicado do que tentar entender Dark
-
Que questão lokona
-
Vamos tentar responder e dar racionalidade às alternativas:
A) ERRADA - Quem introduz no mundo um agente inteligente, com capacidade de aprendizagem conforme as informações sejam inseridas, pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis;
Caso Pedro construa um robô com senciência, este será a representação da vontade do seu criador, que o construiu a partir de algoritmos. Logo, o sentido de certo ou errado da máquina, parte-se da vontade do construtor. Assim, eventual reação equivocada será de responsabilidade do agente por de trás do agente inteligente, não podendo negar sua responsabilidade.
B) ERRADA - os robôs com inteligência artificial são agentes morais genuínos e sua programação interna funciona segundo um sistema de “méritos” e “deméritos” para certas decisões que eles tomam;
Pelos fundamentos da questão anterior, não poderíamos chamar os robôs de AI como "agentes morais genuínos", estes, por sua vez, são os seres humanos.
D) ERRADA - os robôs com inteligência artificial são máquinas que completam suas tarefas conforme sua programação, que equivale à autodeterminação humana sobre razões morais;
Também repito os fundamentos da questão "a", visto que a autodeterminação humana, v.g. livre arbítrio, existe apenas para os agentes morais genuínos, mas não para as máquinas que são aprisionadas pelo senso moral do seu elaborador.
D) ERRADA - a possibilidade de programar o veículo para escolher uma vida para sacrificar, com o intuito de salvar outras, quando o acidente for inevitável, atrai a incidência do estado de necessidade, excluindo a responsabilidade do programador.
Aqui vamos nos socorrer da própria definição trazida pelo Código Penal no Estado de Necessidade no art. 24 que indica que alguém comete um ato ilícito para salvar-se ou terceiro para sacrificar bem jurídico de menor ou igual valor ao preservado. Percebe-se que a palavra "alguém" é o cerne da questão. Um robô não é uma pessoa, que o programador, em casa ou no conforto do lar, poderia se utilizar para invocar o Estado de Necessidade, quando o referido programador não está na situação de perigo concreto. Confesso que essa é a que mais se assemelharia a uma resposta correta, caso considerássemos os robôs como incluídos no art. 24 do CP.
C) CERTA - os denominados “algoritmos de acidente”, aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento;
Utilizando o fundamento da alternativa anterior, caso não seja possível alegar o Estado de Necessidade, então, mesmo em casos de inevitáveis colisões, seriam responsáveis os seus produtores pelos chamados "algoritmos de acidente".
-
nunca estudei isso, não sabia nem o que colocar como resposta. tá brabo...
-
Pessoal, para quem ficou em dúvida entre "C" e "E", fiz por exclusão com o seguinte raciocínio:
No enunciado diz " crime doloso ou culposo", ou seja são elementos do fato típico que estão inseridos na conduta do agente (levando-se em conta a teoria finalista adotada pelo CP). Assim, a letra "E" diz sobre o estado de necessidade que é uma excludente de ilicitude, pouco tem a ver com o que o comando da questão pede. Portanto, acabei marcando a "C".
-
A questão certa diz: "os denominados “algoritmos de acidente”, aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento";
Mas se o acidente era inevitável não se teria que analisar se ele ocorreu por negligência, imprudência ou imperícia para configurar a responsabilidade penal? Afirmar categoricamente que "geram responsabilidade penal" seria uma for de responsabilidade penal objetiva. No comentário do Klaus ele bem colocou o complemento: haverá responsabilidade do programador mesmo assim, se identificada a culpa. Acho que a questão deveia ter sido anulada.
-
Acredito que não se poderia invocar estado de necessidade, pois neste teríamos que ter perigo real. Uma programação anterior não prevendo isso estaria atuando em perigo futuro.
Caso eu esteja errado peço desculpas.
-
Juro que tentei ...
-
Você que passou nessa prova, pode deixar o currículo na tesla
-
Só Deus sabe como acertei isso...
-
Gabarito: C - Nível bem difícil.
Errei, mas é uma questão interessante. A pegadinha é certamente a possibilidade de exclusão de antijuridicidade proposta pela alternativa E. Sobre o assunto eu encontrei um artigo (meramente informativo) no site da ibccrim, que diz, em suma:
- Algoritmos que alteram a direção do veículo e, consequentemente, quem é por ele atingido, não logram superar a antijuridicidade por meio da colisão de deveres.
- Se o comando geral “não mate” abrange todas as alternativas de resolução do caso de que dispõe o algoritmo, só seria prima facie justificável que ele mantivesse o veículo no curso original, ou seja, cumprisse com o dever de omissão de não atingir terceiros e não o dever comissivo de desviar o veículo da eminente colisão.
- Não parece haver justificativa alguma para reconhecer a incidência da excludente quando a programação direcionar o veículo a atingir terceiros alheios à situação de perigo original.
- De modo que a própria criação do algoritmo de acidente já não seria permitida. E mesmo que fosse, nesse caso, o programador seria uma espécie de garante, mais uma vez, afastando-se a possibilidade de exclusão da antijuricidade.
-
Deus nos proteja
-
Nunca tinha lido nada parecido. bem interessante. tive que ler várias vezes pra entender, e ainda sim errar. kkk
-
Olá, colegas!
A breve leitura deste artigo ajuda a responder a questão. Sobre a assertiva "E", segue um breve trecho do texto que explica o porquê de estar incorreta:
"Porém, é possível imaginar alguém que questione o porquê de não se aplicar o estado de necessidade em tais situações. Traçar a diferença entre ambas as justificantes é suficiente para responder à indagação: (i) na colisão de deveres, o bem protegido não é de valor superior ao bem lesado – são, antes, bens de valor equivalente; já no estado de necessidade justificante há tal exigência (DIAS, 2004, p. 438); (ii) na colisão de deveres, o agente tem o dever de agir, isto é, frente a deveres iguais, deve optar por um; no estado de necessidade, o agente é livre para deixar os acontecimentos correrem, podendo optar ou não por agir (HERINGER JÚNIOR, 2015, p. 118)."
FONTE: https://www.ibccrim.org.br/noticias/exibir/8736
-
meu pai amado
-
Deus é por nós!!! FGV nos aguarde!!! Valhe-me Nossa Senhora da Aprovação kkk...
-
Que robô não tem culpabilidade isso é bem óbvio. Taí pq essencial responder questões pq pra mim é novidade.
-
mais alguém achou essa questão "bizonha", pra n dizer outra coisa?
-
é errando que se aprende.. ja dizia...
-
A gente tem que tentar usar todos os nossos conhecimentos de Star Wars pra resolver essa questão.
Sobre o Item C "os denominados “algoritmos de acidente”, aqueles que selecionam vítimas em casos de inevitável colisão no tráfego dos carros autônomos, geram responsabilidade penal pela morte decorrente de atropelamento;"
Imagine a seguinte situação.
Foi desenvolvido um carro de última geração e que sua inteligência artificial permite que ele se desloque de modo independente, sem utilizar-se de motorista, a partir de um trajeto pré estabelecido pelo passageiro.
Agora, pense que os programadores dessa I.A embutiram um código na linha de programação em que em casos inevitáveis de acidente envolvendo pedestres, o veículo deve priorizar atropelar pessoas acima de 70 anos, pois essas pessoas teriam menos expectativa de vida em comparação com as pessoas mais novas.
Veja que, em razão desse comando pré-programado, os desenvolvedores acabam dando causa a um resultado penalmente relevante.
=====================================================
Minha dúvida pairou sobre a letra A que fala
"quem introduz no mundo um agente inteligente, com capacidade de aprendizagem conforme as informações sejam inseridas, pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis;"
Atualmente, a capacidade de aprendizado das I.A's se dão de duas maneiras.
A primeira, a partir de linhas de programação inseridas diretamente pelo desenvolvedor humano.
E a segunda e bem mais complexa é a chamada de deep learning, um tipo de machine learning.
Em suma, dois programas de maneira autônoma e sem interferência humana, são postos para interagirem entre si, ao passo que cada um introduz ao outro novas camadas de aprendizagem.
Acontece que, apesar de muito avançado, o deep learning já provocou situações pavorosas, a exemplo de uma I.A que foi posta no tweeter e acabou adquirindo uma personalidade ultranazista e de erradicação completa da raça humana (SÉRIO)
Então eu penso que quando o agente inteligente artificial é introduzido no mundo a partir de outro agente inteligente 100% artificial e com zero interferência humana, não seria possível responsabilizar o desenvolvedor humano a depender da imprevisibilidade e autonomia da situação em concreto.
Pois se assim o fosse, estariamos diante de uma responsabilidade ad infinitum. Se um pai não é responsável pelo crime que seu filho cometeu, de modo paralelo, a depender do caso específico, um programador não deveria ser responsável pela imprevisibilidade da inteligência artificial autonoma.
-
Vou deixar só uma contribuição quanto a letra E
O Estado de Necessidade recai sobre quem pratica o fato para salvar de PERIGO ATUAL que não provocou por sua vontade, nem podia de outro modo evitar, direito próprio ou alheio, cujo sacrifício, nas circunstâncias, não era razoável exigir-se
Assim, caso um programador, de maneira prévia, tivesse introduzido uma linha de programação voltada para um PERIGO POTENCIAL, não estaria acobertado por essa excludente de ilicitude.
-
1. Questiono-me sobre a aplicabilidade prática da situação descrita na letra "c", dada como correta.
Um veículo autônomo produzido por uma empresa estrangeira, sendo o programador lá residente. Caso o automóvel por ventura cause um acidente com "vítimas em casos de inevitável colisão no tráfego dos carros autônomos", haverá, então, responsabilidade penal do programador pela morte decorrente de atropelamento?
Assim, o MP ingressará com uma denuncia, obrigatoriamente, por conta da indisponibilidade da ação penal, contra o programador alienígena? Ou deverá ingressar contra o representante da empresa, caso haja, no Brasil?
2. Não vejo como a alternativa "a" pode estar errada.
A contrario sensu estará certo, segundo a linha de pensamento adotada pelo examinador, que: "quem introduz no mundo um agente inteligente, com capacidade de aprendizagem conforme as informações sejam inseridas, NÃO pode negar sua responsabilidade pelos danos causados por reações equivocadas não previsíveis"
SMJ, a interpretação que faço é: independente da causa, aquele que programar um carro autônomo sempre irá responder penalmente por "danos causados por reações equivocadas não previsíveis"
Isso não seria um tipo de responsabilidade penal objetiva? Tendo em vista que no comando da questão é dito que sejam analisadas as assertivas: "em relação à imputação subjetiva do resultado"