E-Learning
  • Para Mais Informações!
  • +258 87 30 30 705 | 84 30 30 709
  • info@edu-tech-global.com
Lista de diretrizes ajuda modelos de IA a terem mais ética

A líder da divisão de investigação sobre inteligência artificial (IA) confiável da Carnegie Mellon University (CMU) afirma, em entrevista à Lusa, que uma lista de diretrizes ajuda estes modelos a terem mais ética e menos preconceitos.

<p>Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na confer&ecirc;ncia internacional de engenharia de &#39;software&#39; (ICSE2024), o evento mais importante nesta &aacute;rea que decorreu em Lisboa.</p> <p>&quot;O trabalho que fa&ccedil;o &eacute; reunir ci&ecirc;ncia da computa&ccedil;&atilde;o, psicologia cognitiva e &#39;design&#39; art&iacute;stico (...)&quot; e ajudar &quot;as pessoas a entender os impactos que as escolhas&quot; nos modelos de IA t&ecirc;m no sistema, ou seja, dos dados que decidem usar, a maneira como aplicam algoritmos a esses dados, permitindo perceber o qu&atilde;o confi&aacute;vel &eacute;, explica.</p> <p>Se escolherem os dados errados, se aplicarem o modelo errado ou se o interface do utilizador for dif&iacute;cil de entender, &quot;as pessoas que a utilizam n&atilde;o ir&atilde;o confiar nela ou n&atilde;o gostar&atilde;o da forma como funciona. &quot;E, portanto, todos esses aspetos t&ecirc;m de estar corretos para que as pessoas estejam dispostas a usar os sistemas e de maneira correta&quot;, diz.</p> <p>Questionada sobre como &eacute; que podemos resolver a quest&atilde;o do vi&eacute;s nos modelos de IA, Carol Smith foi perent&oacute;ria: &quot;N&atilde;o podemos&quot;.</p> <p>Porque &quot;os dados s&atilde;o sempre uma representa&ccedil;&atilde;o do passado, s&atilde;o sempre hist&oacute;ricos porque s&atilde;o criados por humanos e somos todos tendenciosos&quot;, afirma a investigadora que aborda temas como IA generativa, limita&ccedil;&otilde;es da IA e o preconceito inerente aos sistemas criados por humanos, &eacute;tica e sistemas confi&aacute;veis.</p> <p>At&eacute; porque &quot;h&aacute; pelo menos uma raz&atilde;o pela qual as informa&ccedil;&otilde;es foram recolhidas, pela qual foi organizado da maneira que foi&quot; e isso introduz vi&eacute;s.</p> <p>&quot;Quando pega um conjunto de dados e aplica um algoritmo, essa &eacute; outra op&ccedil;&atilde;o. Ent&atilde;o est&aacute; apenas a adicionar preconceito a cada escolha que faz sobre como o sistema &eacute;, e isso &eacute; verdade para qualquer tipo de sistema. Mas com a IA, essas escolhas podem mudar drasticamente o que o sistema cria ou produz porque esses sistemas n&atilde;o entendem nada, est&atilde;o simplesmente fazendo correspond&ecirc;ncia de padr&otilde;es ou est&atilde;o escolhendo a pr&oacute;xima informa&ccedil;&atilde;o prov&aacute;vel&quot;, explica.</p> <p>Nesse sentido, os sistemas &quot;podem encontrar informa&ccedil;&otilde;es que n&atilde;o se pretendia que o sistema prestasse aten&ccedil;&atilde;o&quot;, aponta.</p> <p>E como &eacute; que se pode reduzir esse efeito? &quot;Uma parte &eacute; compreender os dados, examinar e conhecer os preconceitos existentes e estar disposto a dizer n&atilde;o aos conjuntos de dados que sabemos terem muitos preconceitos negativos&quot;, refor&ccedil;a Carol Smith.</p> <p>Recorda que h&aacute; muitas ind&uacute;strias que t&ecirc;m sido, historicamente, preconceituosas contra certos grupos de pessoas devido a uma variedade de raz&otilde;es.</p> <p>Sobre se &eacute; necess&aacute;rio criar uma lista de diretrizes para tornar os modelos de IA mais &eacute;ticos, Carol Smith admite que sim.</p> <p>&quot;At&eacute; certo ponto, sim. Cri&aacute;mos listas de verifica&ccedil;&atilde;o, algumas maneiras diferentes para as pessoas abordarem esses problemas e come&ccedil;arem a pensar sobre as implica&ccedil;&otilde;es das coisas que est&atilde;o a fazer&quot;, sublinha.</p> <p>&quot;Acho que o maior aspeto &eacute; realmente dedicar um tempo para entender os dados e o contexto em que eles ser&atilde;o usados e ter certeza de que est&atilde;o corretos e que as escolhas certas est&atilde;o a ser feitas&quot;, acrescenta.</p> <p>Os sistemas &quot;s&atilde;o din&acirc;micos, t&ecirc;m de ser monitorados constantemente&quot;, pelo que tamb&eacute;m &eacute; preciso &quot;estar disposto a entender o problema, entender o custo total&quot; de deter estes sistemas e ter os recursos para monitoriz&aacute;-los &quot;a longo prazo para garantir que n&atilde;o mudaram de uma forma que afete negativamente as pessoas&quot;, remata Carol Smith.</p> <p>&nbsp;</p> <p>Leia Tamb&eacute;m:&nbsp;<a href="https://www.noticiasaominuto.com/tech/2548872/inteligencia-artificial-esta-entre-os-desafios-dos-contact-centers" target="_blank">Intelig&ecirc;ncia Artificial est&aacute; entre os desafios dos &#39;contact centers&#39;</a></p>

Tags:
Partilhar: