
A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) diz, em entrevista à Lusa, que não faz sentido regulamentar a tecnologia, mas que o foco deve ser direitos humanos e privacidade.
<p> <audio class="audio-for-speech" src=""> </audio> </p> <div class="translate-tooltip-mtz translator-hidden"> <div class="header"> <div class="header-controls"> <p>Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na conferência internacional de engenharia de 'software' (ICSE2024), o evento mais importante nesta área que decorreu em Lisboa.</p> <p> </p> <p>Questionada sobre se é preciso mais regulação devido aos riscos de sistemas como os de IA, Carol Smith diz que não.</p> <p>"Não acredito que regulamentar a tecnologia faça sentido", mas "acredito que precisamos de nos focar mais nos direitos humanos e na proteção da privacidade" e temas à volta disso, "independentemente da tecnologia", explana.</p> <p>"A IA é apenas a nova tecnologia, daqui a alguns anos estaremos a falar de algo novo, então, em vez disso, precisamos de nos focar na proteção dos dados das pessoas, na proteção da sua privacidade, na proteção dos seus direitos e em garantir que estamos a aplicar isso para qualquer tipo de tecnologia", acrescenta.</p> <p>A inteligência artificial é "um sistema mais complexo, mais dinâmico e com aplicações mais amplas", recorda, pelo que pode impactar grupos de pessoas maiores.</p> <p>Mas o que é importante, diz, é "proteger as pessoas, independentemente do sistema que estiverem a usar", razão pela qual defende o reforço de tudo o que é relacionado com os direitos, privacidade e proteção de dados.</p> <p>Sobre a questão da desinformação, Carol Smith admite que nem todas as pessoas têm a capacidade de serem críticas em relação à informação que lhes é apresentada.</p> <p>"E quando veem informação que alinha com as crenças por que razão hão de questionar isso", pergunta, acrescentando que esta é "realmente a grande questão".</p> <p>Nesse sentido, "acho que, como as pessoas são tão difíceis de influenciar, o efeito provavelmente não é tão grande quanto a preocupação", salienta.</p> <p>Agora, "não estou a tentar dizer que não há preocupação, mas alguém que é muito forte nas suas crenças provavelmente não será influenciado por nada", refere.</p> <p>Por isso, questionada sobre as eleições nos EUA, a investigadora diz estar mais "preocupada com o escrutínio, com a forma como os escrutínios" são geridos e "com a utilização de técnicas" que todos sabem que são "fiáveis", que é "ainda mais importante do que a influência da informação incorreta, da desinformação", o importante é "garantir que as pessoas acreditam no próprio processo, nos votos em si".</p> <p>Carol Smith destaca outro aspeto, que representa um "grande risco": as pessoas serem enganadas por alguém e serem alvos de extorsão, por exemplo, utilizando a tecnologia para isso.</p> <p>"Adoraria ver o pensamento crítico a ser ensinado de forma mais completa" no ensino, defende.</p> <p>As pessoas não precisam de saber como é que os algoritmos funcionam. Se quiserem, fantástico, mas o que precisam é saber como encontrar os factos, como perceber se algo é falso ou não", sublinha.</p> <p>Sobre o que a preocupa, diz que "neste momento" é a falta de transparência "sobre a forma como algumas das grandes organizações estão a fazer o seu trabalho e que conjuntos de dados estão a utilizar, potencialmente expondo as pessoas a danos inadvertidamente através da colocação das suas informações pessoais nos sistemas", entre outros.</p> <p>Como estes conjuntos de dados acabam de obter tudo o que podiam da Internet, há muitas informações que não deveriam estar nesses conjuntos de dados, especialmente para modelos fundamentais como a IA generativa e grandes modelos de linguagem, refere.</p> <p>A investigadora espera ver mais ética na tecnologia dentro de dois anos: "Espero que [nessa altura] tenha recebido ainda mais atenção" do que atualmente.</p> <p> </p> <p>Leia Também: <a href="https://www.noticiasaominuto.com/tech/2549716/lista-de-diretrizes-ajuda-modelos-de-ia-a-terem-mais-etica" target="_blank">Lista de diretrizes ajuda modelos de IA a terem mais ética</a></p> </div> </div> </div> <p> </p>