Inteligência artificial

Tempo de leitura: 2 minutos

O conceito de inteligência artificial faz 50 anos neste mês. O termo é creditado a John McCarthy, professor de matemática do Dartmouth College, nos Estados Unidos. Ele adotou a expressão em 1956 em uma conferência para trabalhar “a conjectura de que todos os aspectos do aprendizado e outras características da inteligência podem em princípio ser precisamente descritas de modo que uma máquina seja capaz de simulá-las”.
Para celebrar a data, vale voltar a 1942, quando o escritor de ficção científica Isaac Asimov criou suas três leis da robótica. A primeira diz que “um robô não pode ferir um ser humano”.
A segunda diz que o robô “deve obedecer às ordens que lhe sejam dadas por seres humanos”, exceto se houver conflito com a primeira lei.
A terceira diz que o robô “deve proteger sua própria existência desde que tal proteção não entre em conflito com a primeira ou segunda lei”.
Nessa época, a ideia de automação ainda pertencia ao território da ficção. Hoje, essa questão não só está entre nós de forma prática como gera questões que dão curto-circuito nas leis de Asimov. Criar princípios éticos para automação deixou de ser um exercício literário para se tornar uma questão prática urgente.
Basta perguntar à Alemanha. Em junho, o Ministério do Transporte e da Infraestrutura Digital daquele país publicou um relatório estabelecendo os princípios básicos que deverão ser aplicados pelos carros autônomos.
Como se sabe, estamos no limiar do momento em que esses carros começarão a tomar as ruas das cidades.
A questão é que inevitavelmente haverá situações em que a máquina (guiada por software) precisará tomar decisões “éticas” que terão impacto na vida e na integridade física de seres humanos. Em outras palavras, as leis da robótica clássicas são insuficientes para resolver essas situações.
Tanto é que o documento alemão traz não três, mas 20 princípios que deverão ser respeitados pelos carros autônomos.
A leitura do documento é fascinante. Há princípios gerais como a determinação de que “o propósito das modalidades autônomas de transporte é melhorar a segurança” e que “a proteção de indivíduos tem precedência sobre qualquer outra consideração utilitária”.
No entanto, acidentes muitas vezes serão inevitáveis. Nesses casos, “os sistemas devem ser programados para aceitar danos a animais ou a propriedades se isso significar a segurança de pessoas”.
Além disso, em tragédias iminentes, “é estritamente proibido fazer distinções com base em características pessoais (idade, gênero, estado mental etc.)” sobre quem será atingido. É também proibido por considerações utilitárias “sacrificar qualquer pessoa não envolvida na geração dos riscos de mobilidade”.
Em outras palavras, vamos precisar ensinar às máquinas coisas que nós, humanos, nem sequer sabemos enunciar precisamente, como moralidade e bom senso. Se John McCarthy estivesse vivo, convocaria uma conferência para trabalhar com a “ética artificial”.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *