O que será de nós em um futuro rodeado pela inteligência artificial?
- Luís Felipe Pio

- 30 de nov. de 2023
- 11 min de leitura
Ferramentas como o ChatGPT interferem no atual sistema de ensino e devem automatizar funções operacionais das empresas
Por Luís Felipe Pio
O mundo inteiro teve contato de maneira repentina com o Chat GPT e passou a ser mais informado pelas mídias sociais sobre a “novidade” do momento: a inteligência artificial (IA). Isso aconteceu provavelmente pela maneira que a tecnologia foi divulgada e pelo impacto que ela causou no público. Alguns diziam que a IA iria substituir o homem muito em breve nas profissões. E outros afirmavam que as habilidades humanas são essenciais e superiores a qualquer IA.
Para elucidar um futuro com mais precisão e dizer também com quantos paus se faz uma IA, convidamos o doutor em ciência da informação, mestre em comunicação e cultura e professor da Universidade de Sorocaba (Uniso), Luís Albano – que defendeu sua dissertação sobre inteligência artificial e semiótica. Com um par de óculos que se destaca sobre seu rosto amigável e caricato, o professor explica, de maneira simples, tanto a parte técnica do funcionamento de uma IA quanto de que maneira os serviços que ela oferece podem impactar na vida do ser humano. Já imaginou como será viver em um mundo em que a IA não é só comum como indispensável? Será que ela vai tomar o lugar de muitos profissionais? Será que ela vai ser tão inteligente quanto o ser humano? Será que ela vai criar sentimento? São perguntas como essa que Luís Albano foi convidado a responder. Só que para entender tudo isso, meu amigo leitor, é preciso começar do começo.
EcoWave: Como o senhor define uma IA?
Luís Albano: É bem difícil a gente definir o que é IA. Eu trabalho com pesquisa de área na USP, no laboratório de cultura, informação e sociedade, e uma das áreas que eu estudo lá é a IA. Para poder trabalhar com essa ideia de IA é um pouco difícil porque a definição dela é muito vaga. É difícil definir o que é IA, da mesma forma que é difícil definir o que “inteligência”. A inteligência é um termo polissêmico, então, a gente da área de IA acaba adotando a ideia de que inteligente é tudo aquilo que parece ser inteligente. E artificial é tudo aquilo que é feito por mãos humanas. Então, você vai entender a IA como tudo aquilo que a gente produz que parece ser inteligente.
EcoWave: Como ela é feita?
L.A.: Basicamente, é algoritmo. Ela vai utilizar algoritmos para duas coisas: identificar padrões e fazer previsões básicas. Então, no geral, a gente usa algoritmos de IA, quando a gente quer fazer alguma coisa que programar fica relativamente difícil de fazer. Por exemplo, quando eu quero identificar padrões ou fazer comparações entre duas imagens, eu pego duas fotos de cachorro. São fotos diferentes, mas ambas têm um cachorro. Eu quero que ela identifique que são cachorros que estão nessa foto (os cachorros têm características e padrões métricos que são muito parecidos). A IA é um algoritmo que a gente usa como referência estatística e outras áreas da computação que usam a IA para identificar esse padrão, porque se a gente fosse programar na mão essa identificação seria muito complicada. Teria que calcular uma quantidade quase infinita de variáveis e a IA meio que aprende e desenvolve sozinha a identificar os padrões e fazer esse tipo de previsões.
EcoWave: Como ela pode contribuir com o trabalho do ser humano?
L.A.: Hoje, a gente usa IA em uma quantidade muito grande de atividades. Desde atividades técnicas até aquelas que são mais sociais e culturais. Por exemplo, a gente usa IA no levantamento de dados e análise de dados sociais. Utilizou-se muito na pandemia de Covid-19. Você quer descobrir como as pessoas se movimentam em uma cidade, quais são os padrões de movimento delas e quais são as formas em que elas estão interagindo umas com as outras. Você consegue usar a IA para identificar esses padrões e fazer previsões do tipo “dado esse caminho que estamos seguindo, a possibilidade de ter mais casos de Covid nesse lugar é x”.
E isso para identificação de problemas de saúde também. Por exemplo, quais são os bairros de uma cidade que tem menos saneamento básico. Você faz um levantamento estatístico de quais doenças você tem ali e, a partir disso, você consegue montar um modelo matemático e, depois, um modelo de algoritmo de IA para poder prever, por exemplo, quais remédios aquelas pessoas vão precisar ou quais políticas de saneamento elas vão precisar. Então, a gente consegue usar a IA para uma infinidade de condições. Ela automatiza todo o processo. A gente costuma dizer que a IA possui três grandes eixos: impacto e escala, que estão relacionados ao quanto ela alcança na escala de trabalho dela, e um terceiro (que não é tão positivo) que é a opacidade. Por ela ter essa questão mais nebulosa em detrimento de uma programação tradicional, você não sabe muito bem como ela funciona por dentro. Não vou entrar no mérito técnico, mas ela meio que se auto ajusta. A gente não sabe muito bem como ela faz isso por conta. A gente sabe a técnica de como ela faz, mas a gente não sabe o resultado numérico que ela vai dar. E isso acaba tratando uma série de desafios que a IA pode trazer.
EcoWave: Por exemplo?
L.A.: Bom, acho que os principais que a gente tem hoje e que eu vejo são três grandes problemas. O primeiro é a questão da clusterização do deserto de dados. Por exemplo, vamos pegar o ChatGPT. O GPT é alimentado com a base de dados – agora com a internet inteira, inclusive. E ele, na verdade, tem um modelo de linguagem natural, então, ele aprende com a base de dados tudo que já foi escrito e aprende a escrever como a gente gostaria que escrevesse, como a gente deveria. Só que essa mesma base de dados também é usada para passar as informações que a gente precisa. Qual é o problema? Essa base de dados pode estar enviesada. A gente não pode ignorar uma série histórica, sócio-cultural, fenômenos que constituem um monte de estrutura de racismo, machismo estrutural, homofobia, enfim. Isso é representado nos dados, nas informações que a gente produz e o algoritmo usa isso até certo ponto para poder replicar essas informações e tirar referências para passar para gente. Então, esses dados são enviesados, a depender dos grupos que são utilizados para coletar os bancos que são usados. Esse é um grande viés que a IA pode ter e pode causar esse tipo de desafio. Os dados que não estão lá dentro ou os dados que eles entram, mas eles não são usados nos processos de recuperação para apresentar a gente chama de deserto de dados. Porque não significa que, por exemplo, não são coletados os dados de pessoas pretas ou homossexuais, mas significa que esses dados não estão sendo utilizados porque os usuários das IA’s desconsideram, no uso da ferramenta, esses dados e daí no treino da ferramenta isso vai ficando para fora. Esse é um dos problemas.
Um outro problema é usar IA para identificar padrão de comportamento humano. Então, a gente teve um problema muito grande em 2016 em termos de analítica, né? Usaram o Facebook como ferramenta para identificar o padrão dos usuários e, depois, usaram estruturas de psicologia, ferramentas de behaviorismo, e acabaram tentando influenciar, com posts no Facebook, as pessoas a votarem no Trump. Isso deu um problema imenso lá trás. E a gente vê muito isso, hoje, no TikTok, no Kwai, que usam a seleção de padrão. Por exemplo, você assiste a um determinado vídeo e o aplicativo, com a câmera, consegue ver seu olho, em que parte do vídeo você mais olha, o tempo que você olha e o tempo que você toca. Ele vai identificando esses padrões para sempre te oferecer vídeos com o mesmo perfil, muito alinhados com propaganda que você possa querer ver também. Então, na verdade, você vicia o cérebro de quem tá usando isso.
Só pra você ter uma ideia, a gente tem um estudo (acho que saiu ano passado) que nos últimos dez anos a nossa atenção diminuiu de 45 para 4 segundos. Então, o jovem, hoje, ele consegue reter a atenção de apenas quatro segundos por conta disso. É um absurdo.
E o outro grande e terceiro problema – que é uma coisa que eu tenho estudado – é a questão do overfitting (sobreajuste) cultural ou sociocultural, que é um fenômeno que a gente percebe, por exemplo, na Netflix. Eles usaram IA para identificar padrões e que tipo de série, filmes as pessoas gostavam de assistir. Então, a gente tem esse fenômeno na Netflix no qual tudo é igual: série que retrata a década de 80, com criançada de bicicleta, e comédia romântica água com açúcar. Daí o que que acontece? Como se produz muito isso agora, se faz análise de dados de novo do consumo em cima disso aí que é produzido. Então, você cria uma bolha que é uma bola de neve. Você está sempre analisando a mesma coisa que você já produziu e isso infinitamente é definido até que você crie uma pasteurização que deixa tudo sempre muito parecido.
Isso é um problema que eu tenho chamado de overfitting cultural. Inclusive, a gente tem redes neurais de IA que ela vai ficando tão especialista que ela não consegue identificar nada muito fora do padrão. Por exemplo, em 2016, eu fiz uma IA que usava o conceito de rede neural – que copia mais ou menos a forma como o cérebro trabalha para entender o mundo. E daí eu fiz uma rede neural que identificava a diferença entre Chihuahua e Muffins. Eu vi uma foto no Facebook e daí eles mostraram que era muito parecido com vários cachorros, vários muffins, e daí essa rede neural identificava por meio das medidas do Chihuahua. Porém, o que que vai acontecendo? Você vai sempre dando mais fotos de Chihuahua e muffin e ela vai aprendendo matematicamente quem é o que. Só que ela vai treinando cada vez mais para um tipo específico de Chihuahua a ponto de ela só conseguir identificar um tipo foto. Toda IA passa eventualmente por esse problema de sobreajuste e eu entendo que culturalmente isso pode acontecer também. Um sobreajuste cultural. Então, essas são três patologias que a gente pode ver hoje.
EcoWave: Podemos dizer, então, que a inteligência artificial é educada a trabalhar?
L.A.: Ela é treinada. Você pega um conjunto de dados, você treina ela para reconhecer aquele conjunto de dados e, reconhecendo, a gente pode identificar padrões a partir dele – e não só padrões como também fazer previsões com ferramentas estatísticas. Qual é a manha? Você consegue passar um conjunto de dados muito diversos dentro dele, de forma que ele vai aprendendo esses padrões a depender das ferramentas que você tem de IA. Acho que essa é a forma mais simples de explicar o que uma IA faz. Ela vai aprendendo os padrões.
EcoWave: E o ChatGPT?
L.A.: O Chat GPT está caminhando para identificar padrões de questões mais técnicas que um arquiteto faz, que um engenheiro faz, um designer faz. Coisas que talvez daqui a cinco anos esse tipo de IA já execute com um certo grau de perfeição. E daí você para pra pensar. Bom, se você tem uma rede que é mais barata, que faz um projeto de construção civil ou de design, que atende a necessidade de um determinado consumidor, então, até onde a profissão precisa entrar para resolver um problema? Esse é o tipo de discussão que eu acho que a gente devia ter. A gente discute muito pouco. Pessoal está discutindo, hoje, coisas que a IA não faz, como por exemplo, “será que ela vai ser tão inteligente quanto o ser humano?”, “será que ela vai criar sentimento?”. E isso não vai acontecer. O tipo de coisa que a gente deveria discutir é o impacto das ferramentas na sociedade.
EcoWave: O senhor acha que ela vai tornar algumas profissões obsoletas?
L.A.: Não diria obsoletas, mas vai mudar o perfil. Assim, muitas profissões vão ter que mudar algumas bases que são seculares. É uma ferramenta. Portanto, as profissões que resumem suas atividades na ferramenta provavelmente vão acabar mudando seu perfil para poder sobreviver.
EcoWave: Como ela irá afetar a área da educação?
L.A.: Bom, de forma geral, precisamos repensar a forma como a gente desenvolve o ensino em todos os eixos, tanto técnico quanto fundamental, superior e até mesmo pós-graduação. Precisamos migrar de uma estrutura que é focada em conteúdo para uma estrutura muito mais discussionista. Não faz sentido, em uma sociedade em que a informação está tão acessível, focar em forçar a memorização de certas informações que podem ser acessadas rapidamente. Portanto, precisamos migrar rapidamente para algo mais crítico, de discussão, aplicação e compreensão.
O GPT e a IA vêm para evidenciar que o ensino baseado em conteúdo não funciona mais. Se já não funcionava antes, agora definitivamente precisa ser reformulado.
Não é que o conteúdo não deva existir, não é isso. Mas, precisamos repensar como usamos o conteúdo em sala de aula. Não apenas transmitir conteúdo, mas como esse conteúdo pode ser criticamente utilizado no processo educacional, para que o aluno se torne autônomo em sua busca pelo conhecimento, entende?
EcoWave: O senhor acha que isso acontecerá daqui a quanto tempo?
L.A.: Isso é difícil de prever. Eu gostaria que fosse logo, para que possamos reestruturar isso, mas as tecnologias geralmente se espalham por duas razões. Quando são acessíveis o suficiente para que todos possam entender e acessar – ou seja, quando são fáceis de usar e não exigem uma compreensão profunda – e quando são baratas. E estamos caminhando para que essas duas coisas aconteçam com a IA hoje. Se pegarmos, por exemplo, o smartphone, vemos uma integração completa do smartphone em um período de 16 anos. O divisor de águas para o smartphone foi o iPhone de 2007. E de 2007 a 2011, as coisas progrediram muito rapidamente. Em 12 anos, tivemos uma integração completa desse dispositivo em nossas vidas. Então, se a IA estiver um pouco mais avançada nesse sentido, especialmente em grupos técnicos e acadêmicos, isso pode se espalhar mais rapidamente e afetar a educação. Não tenho certeza de quão rápido isso acontecerá porque o mundo ainda não está plenamente digital. Se eu não me engano, menos de 30% da população brasileira tem acesso pleno à internet e ao computador.
EcoWave: Como o senhor imagina o futuro?
L.A.: É difícil também. Uma pergunta complicada. É difícil fazer exercício de futurologia. No entanto, eu prevejo algumas coisas. A primeira é que a IA resolverá tudo o que for muito básico e técnico. Então, hoje em dia, a revisão gramatical e ortográfica de textos, por exemplo, já está sendo resolvida pela IA. Revisor, hoje, talvez esteja caminhando para o momento de acabar. Talvez daqui a alguns anos, a IA estará trabalhando de forma mais completa em projetos técnicos. Então, em arquitetura, engenharia, ciência de dados, ciência da computação, talvez comece a ter um impacto, onde os projetos poderão ser resolvidos com a ajuda da IA. Eu não acho que isso acontecerá plenamente em todos os setores, particularmente porque também não acho que será bem regulamentado de alguma maneira. Se for regulamentado, será mal regulamentado, como é a LGPD (Lei Geral de Proteção de Dados) hoje – que é uma lei muito importante, mas ainda precisa ser lapidada. Então, talvez haja alguma regulamentação, mas não sei como as big techs se comportarão, já que geralmente têm uma visão autocentrada da tecnologia. Você vê, o Facebook tentou muito com a ideia do metaverso, e não deu certo porque nem todo mundo tem a infraestrutura para suportá-lo. A Google tentou durante muitos anos usar o Google Plus como a ferramenta principal para agrupar todos os seus serviços em um só lugar, mas foi um fracasso total. Portanto, é difícil dizer, mas, pelo menos essas duas coisas eu vejo: a automação de profissões básicas e a resolução de projetos técnicos, eu vejo como bem prováveis no futuro.
EcoWave: E os profissionais de comunicação? Jornalistas, publicitários, Relações-públicas, designs. Qual o futuro deles?
L.A.: Eu estou lecionando uma disciplina sobre design de tendências, e estamos discutindo exatamente isso. Como o GPT afetará suas funções? Até agora, estamos tentando descobrir o que sobrará, porque, como eu mencionei, quanto mais técnica e operacional for a profissão, mais fácil será para a IA identificar padrões e replicá-los. Então, se a profissão na área da comunicação for fortemente baseada em operações técnicas, é provável que essas funções sejam automatizadas porque a IA é muito mais barata. Quanto às questões mais sutis e humanas, que são muito fora dessa questão de padrão e previsão, eu acho que vocês estão garantidos. Mas, isso é uma hipótese minha. Apesar de ter mestrado em comunicação, a minha área é semiótica e IA. Então, não tenho especialização em jornalismo, por exemplo. Eu imagino que, para o jornalismo, caçar notícias e saber o que noticiar será automatizado, pois tudo o que a IA apresenta não é necessariamente novo, é uma referência ao passado. Tudo que for muito técnico, como design de interiores e arquitetura, que envolvem processos de comunicação mais sofisticados e estão profundamente enraizadas na técnica, acredito que essas áreas perderão espaço para a IA, pois ela já é capaz de resolver muitos desses problemas de forma eficiente. Tudo que é de natureza humana eu acho que prevalece. E isso levanta o nosso grande questionamento: o quanto a gente conhece da profissão para saber o que é humano e o que não é? Isso que deveríamos estar perguntando. Isso é uma grande oportunidade para descobrir a base, o núcleo, de cada profissão.


Comentários