Saltar para o conteúdo

Estudo da UEL mostra que a inteligência artificial (IA) funciona melhor com humanos no circuito

Homem a trabalhar no computador com gráficos digitais num escritório moderno e luminoso.

A investigação mais recente indica que a inteligência artificial (IA) atinge o seu melhor desempenho quando as pessoas se mantêm no circuito, em vez de se afastarem por completo.

O estudo reposiciona a corrida à automatização ao mostrar que a velocidade, por si só, não gera bom senso, significado nem responsabilização.

Sistemas de IA e supervisão humana

Uma revisão de 90 artigos publicados desde 2015, conduzida pela University of East London (UEL), encontrou repetidamente a mesma fronteira: os sistemas de IA operam a um ritmo muito superior ao humano, mas continua a caber às pessoas traduzir e decifrar o que os resultados realmente querem dizer.

Com base nesse conjunto de evidências, a Dra. Susan Akinwalere, da Royal Docks School of Business and Law da UEL, defendeu que a IA amplia capacidades sem substituir o julgamento.

O software consegue classificar, ordenar e relacionar informação em segundos; ainda assim, não consegue determinar se uma recomendação responde às necessidades declaradas de um projeto específico.

Essa limitação mantém a supervisão humana no interior do próprio sistema e coloca uma questão mais profunda sobre aquilo que as máquinas conseguem fazer bem, sem apoio.

O que o software “vê”

No seu melhor, a IA percorre textos, imagens e registos num volume que esmagaria um único trabalhador.

Ao transformar grandes quantidades de dados em padrões ordenados e correspondências prováveis, os sistemas de IA reduzem o tempo entre a pergunta e a pista.

A rapidez torna-se mais valiosa quando o sinal útil está escondido em informação desorganizada, e menos determinante quando a decisão final depende de valores.

Quando a tarefa passa da deteção para o julgamento, a vantagem da máquina encolhe e o papel humano cresce.

Testes humanos aos resultados da IA

O produto do trabalho da IA só se torna “utilizável” depois de uma pessoa o confrontar com necessidades locais, normas sociais e os limites dos dados.

O artigo descreve este enquadramento como um ecossistema de conhecimento: a forma como pessoas, ferramentas e instituições criam e partilham aquilo que sabem.

Dentro desse sistema, os factos não circulam isolados, porque confiança, propósito e oportunidade alteram a forma como são usados.

Deixar a interpretação apenas para o software pode gerar uma resposta impecável no ecrã, mas ineficaz no mundo real.

Trabalhar com a complexidade

Em contextos exigentes, a IA tende a revelar o seu maior valor ao reduzir a sobrecarga inicial de informação. Ao salientar padrões, exceções e possíveis próximos passos, encurta o caminho entre a pergunta e a pista.

A verdadeira promessa da IA não é substituir a inteligência humana, mas ajudar as pessoas a trabalhar com a complexidade mais rapidamente, mantendo o julgamento, o significado e a responsabilidade nas mãos humanas”, afirmou Akinwalere.

O enquadramento proposto por Akinwalere coloca a IA num papel de apoio, mesmo quando os seus resultados são apresentados com uma confiança impressionante.

A ética continua a ser humana

Decisões de grande impacto revelam, com mais nitidez, a linha que separa a assistência por IA da substituição total por software na prática.

Na área da saúde, a World Health Organization (WHO), a agência de saúde das Nações Unidas, alertou que a IA tem de manter a ética e os direitos humanos no centro.

Uma resposta rápida pode, ainda assim, prejudicar pessoas quando ninguém pergunta quem apareceu nos dados de treino e quem ficou de fora.

A revisão humana é essencial porque a justiça não é um padrão escondido nos dados; é uma escolha sobre como agir.

O significado exige contestação

O conhecimento útil não termina na previsão, porque as pessoas têm, ainda, de testar se um resultado merece confiança.

No aviso mais contundente do artigo, o foco desloca-se do poder de processamento para a interpretação e o julgamento.

A IA pode ajudar-nos a processar informação a uma escala que antes não era possível, mas o conhecimento só se torna significativo quando as pessoas o interpretam, o questionam e o aplicam de forma responsável”, disse o Professor Kirk Chang, coautor do estudo e professor na UEL.

Qualquer organização que ignore essa etapa de contestação arrisca-se a transformar velocidade em confiança, sem compreensão real.

Regras antes da implementação

As instituições não conseguem acrescentar ética a um sistema após a sua implementação e esperar resultados fiáveis. Antes de as equipas começarem a apoiar-se em recomendações de IA, as lideranças precisam de documentação, testes e linhas claras de responsabilidade.

O NIST AI Risk Management Framework, um guia do governo dos EUA, reforçou a mesma lógica através de governação, medição e monitorização.

Estas salvaguardas tornam-se ainda mais críticas quando os resultados da IA influenciam contratação, avaliação, triagem médica ou afirmações de investigação.

Já presente nas instituições

Hospitais, escolas e escritórios já utilizam IA de forma limitada, em vez de substituírem por completo os profissionais.

Quando bem aplicada, a IA pode resumir registos, revelar ligações e elaborar opções para que os humanos confirmem ou rejeitem.

Na educação, a United Nations Educational, Scientific and Cultural Organization (UNESCO) defendeu uma abordagem centrada no ser humano, que mantém os professores responsáveis por escolhas éticas e pedagógicas essenciais.

Essa orientação encaixa no argumento central do artigo, porque aprender depende tanto de confiança e cuidado como de respostas rápidas.

Sistemas concebidos para parcerias entre IA e humanos

Tratar a IA como “parceira” humana, em vez de “substituta” humana, altera aquilo que as instituições concebem, compram e recompensam.

Em vez de perseguirem decisões totalmente automatizadas, os gestores podem desenhar fluxos de trabalho em que o software propõe e as pessoas decidem.

Como este modelo mantém os humanos próximos das consequências, é mais provável que os erros sejam detetados antes de se propagarem.

Assim, o desafio real do artigo não é a ambição técnica, mas sim saber se as organizações vão construir colaboração de forma intencional.

O julgamento humano não é o que sobra do trabalho inteligente; é a parte que transforma um resultado em ação.

À medida que a IA se integra mais profundamente nas instituições, os sistemas que perduram serão, provavelmente, os que forem construídos para colaboração, escrutínio e responsabilização.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário