A Inteligência Artificial, os Cisnes Negros e o Monopólio da Verdade


A revista Época Negócios publicou na edição de Maio uma nota sob o título "A Inteligência Artificial errou .... feio". Refere-se a nota a previsão feita por um sistema de I.A. do valor que seria negociado uma tela do pintor russo Mark Rothko em leilão realizado recentemente. O sistema especialista previu que o quadro seria arrematado por US$ 42,3 milhões, com margem de erro de 5%. No final a obra foi vendida por US$51,3 milhões, 21% acima da previsão. A conclusão do autor da nota foi de que para ambientes de leilões de obras de arte "as reações humanas seguem imprevisíveis".
A decepção com o resultado advém de uma percepção errada do produto de sistemas especialistas. Espera-se, em geral, que sejam perfeitos em suas previsões, quando o que se deveria esperar deles é que produzam resultados que sejam estatisticamente bem posicionados entre acerto e erro,. Sistemas de I.A. como o que tentou prever o valor do quadro basicamente são compostos por algoritmos computacionais que são capazes de correlacionar diversas variáveis sobre determinados problemas com as soluções adotadas historicamente e assim reproduzir um diagnóstico ou até prognósticos que sejam, em sua maioria, similares ou melhores que as decisões que seriam tomadas por humanos. Com base no que foi adotado na experiência humana passada determinam soluções para o presente ou até para o futuro.
Para quem não é familiarizado com a questão, uso como exemplo um projeto que trabalhei quando estava na graduação. Em um projeto de iniciação científica pude colaborar com o desenvolvimento de um sistema de apoio a decisão para anestesiologia que foi desenvolvido no Grupo de Engenharia Biomédica da UFSC. Criamos um banco de dados de pacientes que foram entrevistados e tiveram prescrito o devido protocolo de anestesia por especialistas. A partir deste banco de dados a rede neural do sistema era "treinada" para reproduzir prescrições mais próximas do que seria apresentado por um especialista humano.  Assim, já em 1993, era desenvolvido no Brasil um sistema em que um anestesista poderia ser apoiado na escolha da melhor prescrição protocolar para o perfil de um novo paciente.  Solução interessante para dar maior agilidade aos atendimentos, principalmente de emergência.
Usar o passado para definir o presente ou futuro é um dos limites de exatidão não apenas para a I.A., mas também para a inteligência humana. No livro "A Lógica do Cisne Negro", o filósofo Nassim Taleb alerta para o perigo de decisões tomadas com base no que chama de "Falácia da Narrativa". Habilidosamente Taleb lembra que era senso comum considerar que os cisnes existentes no mundo eram apenas brancos. Este paradigma foi quebrado quando foram encontrados uma espécie de cisnes com plumagem negra. A tese de Taleb é que não é porque um evento não é previamente conhecido que devamos adotar que ele não existe ou que não pode ocorrer. Assim, quando tomamos decisões considerando os resultados comportamentais do passado como verdade, podemos incorrer na chamada "Falácia da Narrativa", por não considerar eventos de pouca probabilidade de ocorrência (justamente porque não foram detectados anteriormente) e que podem ter potencial alto de dano ou beneficio, dependendo da sua natureza. Para levar o leitor a concordância com o princípio  filosófico de Taleb uso o exemplo de um "fake" colega chamado Jacinto Rojão. Em sua história de vida convivia tranquilamente com sua fratulência frequente. Historicamente seus eventos de emissões de gases efeito-estufa incomodavam apenas o meio ambiente que o cercava, portanto não se preocupava em evitá-los. Um dia, quando esperava que o evento mantivesse a mesma natureza física dos anteriores, eis que surge o famoso "Cisne Negro". Desta vez sua emissão não tinha apenas o estado gasoso, sendo acompanhada do estado liquido. O inesperado e desconhecido evento público teve o alto impacto de mudar sua alcunha para Jacinto Caldo.
Voltando para o exemplo da predição do valor do quadro de Rothko, todas as variáveis que definem um valor de uma obra de arte devem ter sido consideradas e analisadas historicamente para treinar a rede decisória do sistema. Porém, certamente a precisão do prognóstico foi prejudicado pelo desejo de compra de alguns interessados que não fora detectado e considerado anteriormente. Assim como humanos, o sistema precisa ser novamente treinado, agora considerando o resultado deste leilão para ter uma nova base de dados que poderá melhorar seu desempenho em um próximo certame, a não ser que ocorra um novo "Cisne Negro" que dilate ou contraia os preços.
Sistemas de I.A., assim como humanos precisam aprender com seus erros. Os recursos de hardware possibilitam isto hoje com uma velocidade impressionante se comparados com a minha experiência em 1993 na UFSC, onde microcomputadores jurássicos (XT/AT) levavam horas para fazer todas as iterações previstas na rede e concluir o treinamento. Mas é preciso considerar que jamais serão perfeitos em suas decisões, assim como humanos também não serão. Na cidade chinesa de Jinan, a 400 km de Pequin, no ultimo dia 20 de maio um homem foi multado ao coçar o rosto enquanto dirigia seu veículo. O sistema de I.A. que monitora mais de 7 milhões de motoristas e pedestres  interpretou que ele dirigia falando ao celular. Erro que é  corriqueiramente atribuído a agentes de trânsito da cidade de São Paulo.
Bem, mas enquanto falamos de erros de predição valores de obras de arte ou multa de trânsito, ficamos em um ambiente de consequências de baixo impacto para a maioria da sociedade. Mas, e se o erro custar uma vida?
Espalham-se pelo mundo startup´s de sistemas de diagnóstico médico a partir da I.A. . Medem incontáveis parâmetros , interpretam exames e já poderiam em tese prescrever tratamentos. No campo jurídico, já existe o jurista eletrônico. Terão estes sistemas condições de tratar adequadamente "Cisnes Negros" que se apresentarem a eles? Segundo um médico amigo a medicina é "a ciência das verdades passageiras". Como os sistemas especialistas  irão se adaptar as novas verdades, vírus e bactérias? Decisões judiciais de certos tribunais brasileiros têm nos feito considerar como verdadeira a célebre analogia popular de que "cabeça de juiz é igual a bumbum de neném... quando a gente menos espera vem algo desagradável"(Assim como o meu amigo Jacinto Rojão). Será que a lógica não linear de sistemas de I.A. produzirá resultados menos desagradáveis, principalmente se tomarem a atual jurisprudência brasileira como base de aprendizado?
Todos estes questionamentos me levam a certeza de que jamais poderemos considerar os sistemas de I.A. como oráculos da verdade. O monopólio da verdade não pode ser entregue a estes sistemas. De certa forma isto já ocorre hoje na internet. Quando temos alguma dúvida sobre algo que pouco conhecemos buscamos a onisciência dos sites de busca para dirimir a questão e pronto.... verdade estabelecida pelo google e afiliados. Ter alguém com monopólio da verdade para confiar qualquer tipo de decisão ou escolha é extremamente confortável e atraente para os seres humanos. Se for uma máquina, melhor ainda para culpar quando o resultado não sai como desejamos.
Precisamos entender que sistemas especialistas de I.A. não devem assumir o protagonismo de verdade e certeza. Ter consciência de que sua utilização agiliza atendimentos e podem melhorar a vida da pessoas,  mas não resolver perfeitamente toda e qualquer demanda é imperioso para a sociedade.   O sistema de Jinan, o mesmo que multou o motorista que coçou o rosto, comanda semáforos e faixas reversíveis da cidade e já fez os sete milhões de cidadãos economizarem 30.000 horas de trânsito por dia, segundo especialistas de mobilidade urbana. Estes sistemas erram e continuarão errando. Os benefícios têm sido bem maiores que os erros. A sociedade precisa se preocupar com a forma e por quem estes sistemas terão seus erros avaliados e corrigidos, para evitar que o monopólio da verdade seja estabelecido no comodismo de entregar a função de decisão e escolha para interesses manipuladores . 

Comentários

  1. Muito didático na explicação, gostei.

    ResponderExcluir
  2. Este comentário foi removido pelo autor.

    ResponderExcluir
  3. Parabéns pelo seu artigo. O assunto é interessante e nos leva a pensar.
    Não consegui achar erros de português que hoje são muito comuns quando alguém resolve escrever.

    ResponderExcluir
  4. Muito bom o artigo. Certamente é algo atual e que abre várias vertentes de discussão.
    Parabéns.

    ResponderExcluir

Postar um comentário

Postagens mais visitadas deste blog

Vale do Paraná - Uma aula de Compromisso

OBESIDADE ELÉTRICA: Uma metáfora para entender desbalanço entre oferta e demanda.

Negligência & Risco Oculto