12.03.2020 Views

Revista da Sociedade - FEVEREIRO 2020

Revista FEVEREIRO 2020

Revista FEVEREIRO 2020

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Tecnologia

O grupo publicou um primeiro artigo na área

em 2018 e agora, junto com quatro estudantes

e pesquisadores do grupo de Carvalho, acabam

de publicar o segundo artigo, na mesma Acta

Materialia.

Dois grandes avanços obtidos nesta etapa

da pesquisa – além da avaliação dos algoritmos,

em que se destacou o algoritmo RF

(Random Forest) – foram a precisão obtida na

previsão de valores extremos de Tg (muito altos

ou baixos) e, também, o fato de terem sido

testados algoritmos transparentes, dentre eles

o próprio RF.

Para a realização da pesquisa, os algoritmos

foram alimentados com os dados (Tg) de

mais de 40 mil composições vítreas. Zanotto

explica que, das composições de vidros já concretizadas,

a grande maioria apresenta Tg em

temperaturas médias, o que direciona o interesse

aos valores extremos, seja, por exemplo,

para diminuir a necessidade energética no processo

de produção (no caso das baixas Tgs),

seja para obter materiais mais adequados a

aplicações específicas.

No entanto, como há menos dados relativos

a esses vidros exóticos, também é inferior a

qualidade do treinamento que o algoritmo recebe

durante o seu aprendizado. Mesmo assim,

o trabalho mostrou que a precisão do RF, após

os ajustes realizados pelos pesquisadores, foi

bastante alta, com apenas 3,5% de desvio médio

do valor medido experimentalmente para

vidros com Tg elevada e 7,5% para as baixas

Tgs.

Dentre os seis algoritmos testados, três

eram transparentes (explainable), incluindo

aquele que se revelou a melhor opção entre os

seis. Essa abordagem se opõe àquela em que os

dados entram e resultados saem, sem que os

usuários possam conhecer o processo de tomada

de decisão do modelo gerado pelo algoritmo

(conhecida como black box, caixa preta).

O desenvolvimento de algoritmos transparentes

é uma demanda crescente para a área

de IA, considerando principalmente as chamadas

aplicações críticas, em que um resultado

equivocado pode ter consequências drásticas,

como grandes perdas financeiras e, até mesmo,

de vidas humanas, como é o caso dos carros autônomos,

por exemplo.

“A grande inovação relatada no artigo é o

uso de algoritmos transparentes, que, até onde

eu tenho notícia, não havia sido reportado antes

para previsão de propriedades de vidros”,

afirma Zanotto. “No caso da pesquisa com vidros,

esses algoritmos em que conseguimos

compreender o processo de tomada de decisão

resultam em produção de conhecimento novo.

Por exemplo, geramos uma representação gráfica

dos dados que nos mostrou quais elementos

químicos, em qual proporção, contribuem

mais para vidros com alta ou com baixa Tg”,

explica o pesquisador. “Este era um conhecimento

que estava nos dados, mas que, sem a

ajuda da tecnologia, seria muito difícil enxergarmos”,

conclui.

Carvalho acrescenta que a transparência

do algoritmo permite a detecção de erros e a

validação do modelo utilizado. Neste mesmo

sentido, o pesquisador da USP destaca a relevância

da parceria com a Ciência e Engenharia

de Materiais. “Ainda são poucos os que exploram

o uso dos algoritmos de aprendizado de

máquina para problemas desta natureza, relacionados

à composição química, por exemplo.

Há usos mais consagrados, como na interpretação

de diagnósticos médicos. É sempre

estimulante mostrar uma nova área em que a

Computação consegue contribuir”, avalia. “Isto

também envolve desafios, na compreensão de

como melhor usar os algoritmos para um novo

problema. Para nós, da Computação, é um verdadeiro

luxo contarmos com um especialista,

para que, por exemplo, identifique o que é de

fato importante para a área e o que é descartável,

uma conclusão óbvia”, registra.

Agora, o grupo já está preparando um

terceiro artigo, em que inserem nos três melhores

algoritmos dentre os seis testados cinco

outras propriedades e as relações entre elas.

Um desafio que também já vem sendo enfrentado

é a limpeza dos dados, ou seja, a identificação

e remoção de dados de baixa qualidade,

devido a falhas humanas (medida ou registro

equivocados, por exemplo) ou de dispositivos

(sensores). A etapa final almejada é inversão

do processo de previsão, ou seja, em vez de

fornecer composições e obter propriedades,

informar as propriedades desejadas e receber

a composição. “Queremos chegar em uma ferramenta

computacional em que inserimos as

propriedades desejadas, para uma aplicação específica,

e a máquina nos devolve quais composições

deveríamos testar”, resume Zanotto.

Colaboração:

Coordenadoria de Comunicação Social -

Universidade Federal de São Carlos.

22 Revista da Sociedade

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!