A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) afirma, em entrevista à Lusa, que uma lista de diretrizes ajuda estes modelos a terem mais ética e menos preconceitos.
<p>Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na conferência internacional de engenharia de 'software' (ICSE2024), o evento mais importante nesta área que decorreu em Lisboa.</p> <p>"O trabalho que faço é reunir ciência da computação, psicologia cognitiva e 'design' artístico (...)" e ajudar "as pessoas a entender os impactos que as escolhas" nos modelos de IA têm no sistema, ou seja, dos dados que decidem usar, a maneira como aplicam algoritmos a esses dados, permitindo perceber o quão confiável é, explica.</p> <p>Se escolherem os dados errados, se aplicarem o modelo errado ou se o interface do utilizador for difícil de entender, "as pessoas que a utilizam não irão confiar nela ou não gostarão da forma como funciona. "E, portanto, todos esses aspetos têm de estar corretos para que as pessoas estejam dispostas a usar os sistemas e de maneira correta", diz.</p> <p>Questionada sobre como é que podemos resolver a questão do viés nos modelos de IA, Carol Smith foi perentória: "Não podemos".</p> <p>Porque "os dados são sempre uma representação do passado, são sempre históricos porque são criados por humanos e somos todos tendenciosos", afirma a investigadora que aborda temas como IA generativa, limitações da IA e o preconceito inerente aos sistemas criados por humanos, ética e sistemas confiáveis.</p> <p>Até porque "há pelo menos uma razão pela qual as informações foram recolhidas, pela qual foi organizado da maneira que foi" e isso introduz viés.</p> <p>"Quando pega um conjunto de dados e aplica um algoritmo, essa é outra opção. Então está apenas a adicionar preconceito a cada escolha que faz sobre como o sistema é, e isso é verdade para qualquer tipo de sistema. Mas com a IA, essas escolhas podem mudar drasticamente o que o sistema cria ou produz porque esses sistemas não entendem nada, estão simplesmente fazendo correspondência de padrões ou estão escolhendo a próxima informação provável", explica.</p> <p>Nesse sentido, os sistemas "podem encontrar informações que não se pretendia que o sistema prestasse atenção", aponta.</p> <p>E como é que se pode reduzir esse efeito? "Uma parte é compreender os dados, examinar e conhecer os preconceitos existentes e estar disposto a dizer não aos conjuntos de dados que sabemos terem muitos preconceitos negativos", reforça Carol Smith.</p> <p>Recorda que há muitas indústrias que têm sido, historicamente, preconceituosas contra certos grupos de pessoas devido a uma variedade de razões.</p> <p>Sobre se é necessário criar uma lista de diretrizes para tornar os modelos de IA mais éticos, Carol Smith admite que sim.</p> <p>"Até certo ponto, sim. Criámos listas de verificação, algumas maneiras diferentes para as pessoas abordarem esses problemas e começarem a pensar sobre as implicações das coisas que estão a fazer", sublinha.</p> <p>"Acho que o maior aspeto é realmente dedicar um tempo para entender os dados e o contexto em que eles serão usados e ter certeza de que estão corretos e que as escolhas certas estão a ser feitas", acrescenta.</p> <p>Os sistemas "são dinâmicos, têm de ser monitorados constantemente", pelo que também é preciso "estar disposto a entender o problema, entender o custo total" de deter estes sistemas e ter os recursos para monitorizá-los "a longo prazo para garantir que não mudaram de uma forma que afete negativamente as pessoas", remata Carol Smith.</p> <p> </p> <p>Leia Também: <a href="https://www.noticiasaominuto.com/tech/2548872/inteligencia-artificial-esta-entre-os-desafios-dos-contact-centers" target="_blank">Inteligência Artificial está entre os desafios dos 'contact centers'</a></p>