15.01.2024 Views

COMUNICAÇÕES 248 - VIRGÍNIA DIGNUM: IA RESPONSÁVEL PRECISA DE "REGRAS DE TRÂNSITO"

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

a conversa<br />

Uma das questões que se levanta é que a regulação vai<br />

ser muita má para a inovação…<br />

Voltando ao exemplo dos carros: quem é que quer andar<br />

num carro sem travões? Se tomarmos a regulação a<br />

sério, continuamos a poder desenvolver a tecnologia,<br />

tendo muito maior capacidade de garantir a segurança<br />

no que estamos a fazer. A regulação também pode, por<br />

outro lado, ser uma rampa de lançamento de inovação.<br />

Tenho estado a trabalhar na UE nas regras para <strong>IA</strong> de<br />

confiança, mas também trabalhei com a UNESCO nas<br />

regras para a ética. Nesses grupos, é bastante fácil concordar<br />

que a <strong>IA</strong> deve ser justa e dar garantia de privacidade.<br />

Toda a gente concorda com estes princípios. O<br />

que é extremamente difícil e não há, neste momento,<br />

capacidade de inovação suficiente é dizer: o que é que<br />

isso quer dizer quando estou a escrever o meu código?<br />

Tem a ver com a regulação, mas também com a implementação.<br />

Como posso garantir que o meu sistema é<br />

mais justo do que outro? Por enquanto ainda não podemos<br />

garantir, de forma matemática, que o que eu estou<br />

a fazer é justo. Como é que vou medir? É nisto que<br />

precisamos de inovação.<br />

Aqueles que têm vindo a público com ideias realmente<br />

assustadoras sobre o que a <strong>IA</strong> pode fazer no futuro,<br />

acha que em boa parte é marketing?<br />

Não é marketing, mas é uma maneira de focar a atenção<br />

num problema que não é real neste momento. Enquanto<br />

estamos todos a olhar para as citações do “terminator”,<br />

receando que a <strong>IA</strong> nos matará a todos quando<br />

acordarmos de manhã, ninguém está a tomar atenção<br />

ao que se está a fazer agora. Porque está tudo assustado<br />

com o que vai acontecer, potencialmente, talvez daqui<br />

a 100 anos e, entretanto, fazem o que quiserem.<br />

Sendo uma especialista na área, sabe muito mais do<br />

que a esmagadora maioria das pessoas. Esse conhecimento<br />

não é também uma fonte de inquietação? Ou<br />

pelo contrário?<br />

Acaba por ser “pelo contrário”. O que tento fazer nesses<br />

órgãos em que estou envolvida é demonstrar que nós<br />

somos responsáveis, não temos que estar a pôr medo e<br />

foco na máquina em si: afinal fomos nós que a fizemos.<br />

Temos de ter mais consciência da nossa responsabilidade<br />

e isso passa pela questão de decidirmos se vamos<br />

implementar <strong>IA</strong> nesta situação, ou não. Em muitos casos,<br />

teremos de ser capazes de dizer “não”. Neste momento,<br />

não temos a capacidade, ou as garantias, que o<br />

sistema seja usado de maneira certa – portanto, o melhor<br />

que temos a fazer é não o implementar.<br />

Disse, numa entrevista recente, que tem de haver regulação<br />

ao nível das empresas, dos setores, dos países<br />

e das regiões, com uma coordenação ao nível global,<br />

onde a futura agência da ONU terá uma palavra a dizer...<br />

Exatamente. Não se pode pensar que vamos fazer uma<br />

regulação de um tamanho único, que serve para tudo.<br />

Temos de ter em conta as diferentes realidades e situações.<br />

Uma regulação que se faz para um sistema médico<br />

não é igual à que se faz para aplicações financeiras.<br />

Temos de ter a capacidade de traduzir os princípios éticos<br />

e sociais de forma diferente para cada área. Tomando<br />

em conta também os contextos culturais. A ONU<br />

não vai decidir de maneira uniforme quais são a regras<br />

a observar por todos, mas sim uma forma de coordenar<br />

e integrar o que se faz num sítio e noutro. O que o secretário-geral<br />

nos pediu, foi: “Definam estruturas adequadas<br />

para este organismo internacional. Tendo em<br />

atenção o que são riscos e o que são oportunidades”.<br />

Também estamos a definir quais serão as funções deste<br />

organismo: deverá ter funções de monitorização, de<br />

sancionamento, de emergência. Se um dia tudo correr<br />

mal, deverá funcionar como uma Cruz Vermelha Internacional.<br />

É o que estamos a fazer neste momento.<br />

Quando se assume que, tecnicamente, ainda não é<br />

possível encontrar soluções para a implementação de<br />

certas coisas, no fundo o que se está a dizer é que em<br />

certas questões não se pode avançar em termos de regulação…<br />

Mas a regulação não tem de ser só sobre a técnica.<br />

A <strong>IA</strong> não é só uma questão de engenharia. A <strong>IA</strong>,<br />

neste momento, é um sistema social. Inclui as partes<br />

técnicas, mas também inclui as organizações, os engenheiros,<br />

os utilizadores, os juristas. Se não há possibilidade<br />

de resolver as coisas de forma técnica, tem de se<br />

resolver de outra maneira.<br />

Falando do nosso país: acha que esta instabilidade política<br />

poderá pôr em risco projetos como o consórcio<br />

liderado pela Unbabel?<br />

Penso que os consórcios que já estão a trabalhar não<br />

serão afetados. Mas estou extremamente preocupada<br />

com a instabilidade política não só em Portugal, mas<br />

também no mundo. Dentro dos próximos 12 meses vai<br />

haver eleições em 85 países. A <strong>IA</strong> vai ajudar pessoas a<br />

criar notícias falsas, portanto por aí vamos ver a utilização<br />

da <strong>IA</strong> que reflete a inconsciência das pessoas e<br />

o oportunismo. Esta instabilidade vai certamente influenciar<br />

a forma como o desenvolvimento desta tecnologia<br />

vai continuar.<br />

Essa instabilidade poderá influenciar medidas mais<br />

duras de controlo e regulação?<br />

Pode ter esse efeito ou o contrário. Depende para que<br />

lado a instabilidade política vai pender.•<br />

24

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!