Carol Smith lidera a AI Division Trust Lab na Carnegie Mellon University, EUA, e esteve em Portugal a participar na conferência internacional de engenharia de software (ICSE2024), o evento mais importante nesta área que decorreu em Lisboa.
“O trabalho que faço é reunir ciência da computação, psicologia cognitiva e design artístico (…)”, e ajudar “as pessoas a entenderem os impactos que as escolhas nos modelos de IA têm no sistema”, ou seja, dos dados que decidem usar, a maneira como aplicam algoritmos a esses dados, permitindo perceber o quão confiável é, explica Carol.
Se escolherem os dados errados, se aplicarem o modelo errado ou se o interface do utilizador for difícil de entender, “as pessoas que a utilizam não irão confiar nela ou não gostarão da forma como funciona”. “E, portanto, todos estes aspetos têm de estar corretos para que as pessoas estejam dispostas a usar os sistemas e de maneira correta”, diz ainda Carol Smith.
Questionada sobre como é que podemos resolver a questão do viés nos modelos de IA, Carol Smith foi perentória: “Não podemos”.
“Os dados são sempre uma representação do passado, são sempre históricos porque são criados por humanos e somos todos tendenciosos”, afirma a investigadora que aborda temas como IA generativa, limitações da IA e o preconceito inerente aos sistemas criados por humanos, ética e sistemas confiáveis, Explica Investigadora.
Até porque “há pelo menos uma razão pela qual as informações foram recolhidas, pela qual foi organizado da maneira que foi” e isso introduz viés.
“Quando pega um conjunto de dados e aplica um algoritmo, essa é outra opção. Então está apenas a adicionar preconceito a cada escolha que faz sobre como o sistema é, e isso é verdade para qualquer tipo de sistema. Mas com a IA, essas escolhas podem mudar drasticamente o que o sistema cria ou produz porque esses sistemas não entendem nada, estão simplesmente fazendo correspondência de padrões ou estão escolhendo a próxima informação provável”, explica Carol.
Nesse sentido, os sistemas “podem encontrar informações que não se pretendia que o sistema prestasse atenção”, aponta Investigadora.
E como é que se pode reduzir esse efeito? “Uma parte é compreender os dados, examinar e conhecer os preconceitos existentes e estar disposto a dizer não aos conjuntos de dados que sabemos terem muitos preconceitos negativos”, reforça Carol Smith.
Recorda que há muitas indústrias que têm sido, historicamente, preconceituosas contra certos grupos de pessoas devido a uma variedade de razões.
Carol Smith admite que é sim necessário criar uma lista de diretrizes para tornar os modelos de IA mais éticos.
“Até certo ponto, sim. Criamos listas de verificação, algumas maneiras diferentes para as pessoas abordarem esses problemas e começarem a pensar sobre as implicações das coisas que estão a fazer”, sublinha.
“Acho que o maior aspeto é realmente dedicar um tempo para entender os dados e o contexto em que eles serão usados e ter certeza de que estão corretos e que as escolhas certas estão a ser feitas”, acrescenta.
Os sistemas “são dinâmicos, têm de ser monitorados constantemente”, pelo que também é preciso “estar disposto a entender o problema, entender o custo total”, deter estes sistemas e ter os recursos para monitorá-los “a longo prazo para garantir que não mudarão de uma forma que afete negativamente as pessoas”, remata Carol Smith.