E-Learning
  • Para Mais Informações!
  • +258 87 30 30 705 | 84 63 21 734
  • info@edu-tech-global.com
"Não acredito que regulamentar a tecnologia faça sentido"

A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) diz, em entrevista à Lusa, que não faz sentido regulamentar a tecnologia, mas que o foco deve ser direitos humanos e privacidade.

<p> <audio class="audio-for-speech" src="">&nbsp;</audio> </p> <div class="translate-tooltip-mtz translator-hidden"> <div class="header"> <div class="header-controls"> <p>Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na confer&ecirc;ncia internacional de engenharia de &#39;software&#39; (ICSE2024), o evento mais importante nesta &aacute;rea que decorreu em Lisboa.</p> <p>&nbsp;</p> <p>Questionada sobre se &eacute; preciso mais regula&ccedil;&atilde;o devido aos riscos de sistemas como os de IA, Carol Smith diz que n&atilde;o.</p> <p>&quot;N&atilde;o acredito que regulamentar a tecnologia fa&ccedil;a sentido&quot;, mas &quot;acredito que precisamos de nos focar mais nos direitos humanos e na prote&ccedil;&atilde;o da privacidade&quot; e temas &agrave; volta disso, &quot;independentemente da tecnologia&quot;, explana.</p> <p>&quot;A IA &eacute; apenas a nova tecnologia, daqui a alguns anos estaremos a falar de algo novo, ent&atilde;o, em vez disso, precisamos de nos focar na prote&ccedil;&atilde;o dos dados das pessoas, na prote&ccedil;&atilde;o da sua privacidade, na prote&ccedil;&atilde;o dos seus direitos e em garantir que estamos a aplicar isso para qualquer tipo de tecnologia&quot;, acrescenta.</p> <p>A intelig&ecirc;ncia artificial &eacute; &quot;um sistema mais complexo, mais din&acirc;mico e com aplica&ccedil;&otilde;es mais amplas&quot;, recorda, pelo que pode impactar grupos de pessoas maiores.</p> <p>Mas o que &eacute; importante, diz, &eacute; &quot;proteger as pessoas, independentemente do sistema que estiverem a usar&quot;, raz&atilde;o pela qual defende o refor&ccedil;o de tudo o que &eacute; relacionado com os direitos, privacidade e prote&ccedil;&atilde;o de dados.</p> <p>Sobre a quest&atilde;o da desinforma&ccedil;&atilde;o, Carol Smith admite que nem todas as pessoas t&ecirc;m a capacidade de serem cr&iacute;ticas em rela&ccedil;&atilde;o &agrave; informa&ccedil;&atilde;o que lhes &eacute; apresentada.</p> <p>&quot;E quando veem informa&ccedil;&atilde;o que alinha com as cren&ccedil;as por que raz&atilde;o h&atilde;o de questionar isso&quot;, pergunta, acrescentando que esta &eacute; &quot;realmente a grande quest&atilde;o&quot;.</p> <p>Nesse sentido, &quot;acho que, como as pessoas s&atilde;o t&atilde;o dif&iacute;ceis de influenciar, o efeito provavelmente n&atilde;o &eacute; t&atilde;o grande quanto a preocupa&ccedil;&atilde;o&quot;, salienta.</p> <p>Agora, &quot;n&atilde;o estou a tentar dizer que n&atilde;o h&aacute; preocupa&ccedil;&atilde;o, mas algu&eacute;m que &eacute; muito forte nas suas cren&ccedil;as provavelmente n&atilde;o ser&aacute; influenciado por nada&quot;, refere.</p> <p>Por isso, questionada sobre as elei&ccedil;&otilde;es nos EUA, a investigadora diz estar mais &quot;preocupada com o escrut&iacute;nio, com a forma como os escrut&iacute;nios&quot; s&atilde;o geridos e &quot;com a utiliza&ccedil;&atilde;o de t&eacute;cnicas&quot; que todos sabem que s&atilde;o &quot;fi&aacute;veis&quot;, que &eacute; &quot;ainda mais importante do que a influ&ecirc;ncia da informa&ccedil;&atilde;o incorreta, da desinforma&ccedil;&atilde;o&quot;, o importante &eacute; &quot;garantir que as pessoas acreditam no pr&oacute;prio processo, nos votos em si&quot;.</p> <p>Carol Smith destaca outro aspeto, que representa um &quot;grande risco&quot;: as pessoas serem enganadas por algu&eacute;m e serem alvos de extors&atilde;o, por exemplo, utilizando a tecnologia para isso.</p> <p>&quot;Adoraria ver o pensamento cr&iacute;tico a ser ensinado de forma mais completa&quot; no ensino, defende.</p> <p>As pessoas n&atilde;o precisam de saber como &eacute; que os algoritmos funcionam. Se quiserem, fant&aacute;stico, mas o que precisam &eacute; saber como encontrar os factos, como perceber se algo &eacute; falso ou n&atilde;o&quot;, sublinha.</p> <p>Sobre o que a preocupa, diz que &quot;neste momento&quot; &eacute; a falta de transpar&ecirc;ncia &quot;sobre a forma como algumas das grandes organiza&ccedil;&otilde;es est&atilde;o a fazer o seu trabalho e que conjuntos de dados est&atilde;o a utilizar, potencialmente expondo as pessoas a danos inadvertidamente atrav&eacute;s da coloca&ccedil;&atilde;o das suas informa&ccedil;&otilde;es pessoais nos sistemas&quot;, entre outros.</p> <p>Como estes conjuntos de dados acabam de obter tudo o que podiam da Internet, h&aacute; muitas informa&ccedil;&otilde;es que n&atilde;o deveriam estar nesses conjuntos de dados, especialmente para modelos fundamentais como a IA generativa e grandes modelos de linguagem, refere.</p> <p>A investigadora espera ver mais &eacute;tica na tecnologia dentro de dois anos: &quot;Espero que [nessa altura] tenha recebido ainda mais aten&ccedil;&atilde;o&quot; do que atualmente.</p> <p>&nbsp;</p> <p>Leia Tamb&eacute;m:&nbsp;<a href="https://www.noticiasaominuto.com/tech/2549716/lista-de-diretrizes-ajuda-modelos-de-ia-a-terem-mais-etica" target="_blank">Lista de diretrizes ajuda modelos de IA a terem mais &eacute;tica</a></p> </div> </div> </div> <p>&nbsp;</p>

Tags:
Partilhar: