Painel sobre Inteligência Artificial acontecerá no dia 25/10, das 16h30 às 18h30, no Auditório Imersivo do Centro de Realidade Estendida (CRE) da PUCPR
Altair Olivo Santin*
Você já deve ter ouvido falar em uso de inteligência artificial para auxiliar em alguma tarefa não tão fácil para nós humanos. Mas, você sabe o que isto significa? Na prática, isto quer dizer que os profissionais da área de inteligência artificial estão há mais de 80 anos usando algoritmos para fazer os computadores imitarem o pensamento humano e facilitar a nossa vida. Houve importantes evoluções neste tempo todo, porque os computadores são muito rápido e eficiente na criação de modelos matemáticos que representam relações complexas do nosso cotidiano.
Nos computadores é possível fazer deduções complexas para os humanos de maneira relativamente simples, precisa e rápida. É por isto que em geral quando há muitos dados a serem analisados, as técnicas de inteligência artificial funcionam muito bem para processar esses números e encontrar relações não óbvias para nós humanos. Assim, se considerarmos a área da saúde, por exemplo, um computador consegue fazer diagnósticos mais precisos que humanos na grande maioria dos casos. Mas, o computador ainda não consegue ter sentimentos como os humanos, por mais que os algoritmos tentem imitá-los. Isto torna questões do relacionamento humano, que nos comovem por envolverem memórias ou outras relações, complexas para os algoritmos computacionais da inteligência artificial.
Em geral, um computador tem uma capacidade excepcional para fazer análises, deduções e interpretações a partir de dados, mas não consegue facilmente avaliar o contexto dos dados. É por conta disto que surgiu algo muito conhecido atualmente que o chatgpt, por exemplo, que tenta considerar exatamente isto. Mas, por ser um algoritmo, até é possível colocar regras para ensiná-lo a seguir padrões de comportamento humano. Porém, se na interação com o algoritmo, não usarmos a mesma abordagem utilizada no treinamento do algoritmo, este pode se mostrar antiético ou infringir leis, ou mesmo ser impreciso em seu posicionamento.
Temos um grande benefício que os algoritmos da inteligência artificial podem aprender e otimizar tarefas que fazemos há anos como humanos de maneira não inteligente, mas estamos imputando aos algoritmos responsabilidades para as quais talvez ainda não tenham sido treinados. Surge então questões relativas ao posicionamento ético dos algoritmos de inteligência artificial na interação com os humanos. Há também problemas ligados a ataques aos algoritmos visando descobrir “sua intimidade” para que revelem o que não estaria autorizado a comentar, devido as regras que tentam dar-lhes sentimentos que imitam os humanos. Estes mesmos ataques podem tentar obter dados que os algoritmos não estão autorizados a revelar se perguntados diretamente, mas se isto foi feito de maneira não explicita através de inferências podem fazer revelações comprometedoras.
Há também problemas ligados a ética da aplicação de cada área, por exemplo, um algoritmo de inteligência artificial pode prever uma doença que não seria possível descobrir sem processar grandes massas de dados e criar modelos matemáticos, e isto pode permitir o tratamento precoce de uma doença, salvando vidas. Mas, esta mesma informação nas mãos de uma empresa não ética, que tenha como negócio seguro de vida ou convênios na área de saúde pode injustamente bloquear o acesso de um cliente que tem previsão de desenvolver uma doença no futuro, exatamente porque despenderia custos para o negócio.
Altair Olivo Santin é professor no Programa de Pós-Graduação em Informática (PPGGIa) da PUCPR e líder do grupo de CiberSegurança e Privacidade do CNPq. Ele Participará do painel sobre Inteligência Artificial no 31º SEMIC que acontecerá no dia 25/10, das 16h30 às 18h30, no Auditório Imersivo do Centro de Realidade Estendida da PUCPR.