Impacto da IA é como o da luz elétrica no século passado, diz especialista em educação midiática

Impacto da IA é como o da luz elétrica no século passado, diz especialista em educação midiática 800 534 Instituto Palavra Aberta

A educação midiática, como um conjunto de práticas e também um conceito guarda-chuva, deve abraçar a inteligência artificial (IA) com urgência, respeitando sua complexidade e em muitas frentes possíveis. A afirmação é de Alexandre Le Voci Sayad, jornalista, educador, consultor, escritor e conselheiro do EducaMídia, programa do Instituto Palavra Aberta. “O desenvolvimento da IA terá neste século o impacto que a luz elétrica teve no século passado; trata-se de um impacto sistêmico, muitos autores defendem”, diz ele nesta entrevista.

Segundo Sayad, a IA é parte do desenvolvimento da linguagem e da técnica humanas e já apresenta muitos benefícios. “O algoritmo de inteligência artificial é responsável hoje por boa parte da mediação entre o ser humano e o mundo em sua volta. De nossos empréstimos bancários às buscas no Netflix há diversas famílias de inteligência artificial em ação. Nesse sentido, ela recorta realidades, é capaz de limitar nossa visão de mundo e também conduzir nosso comportamento online, interferindo inclusive na nossa capacidade de decisão”, afirma o autor do livro Inteligência Artificial e Pensamento Crítico: Caminhos para a Educação Midiática, editado pelo Palavra Aberta. A obra será lançada no dia 28 de junho e ficará disponível para download nos sites do instituto e do EducaMídia.

Confira abaixo a íntegra da entrevista.

Instituto Palavra Aberta – Qual é o impacto da IA generativa na educação?

Alexandre Le Voci Sayad – Como o próprio nome diz, essa é uma “família” de desenvolvimento da inteligência artificial que gera produtos (conteúdos) como resultados do processo dos algoritmos. O universo da educação se espantou com isso porque, ao contrário de um algoritmo de buscador de internet, por exemplo, que personaliza uma lista de possibilidades de respostas frente aos hábitos digitais do usuário, a IA generativa apresenta um texto ou imagem prontos. Temos que entender que a IA generativa funciona analisando uma quantidade enorme de dados e comparando parâmetros entre eles, para então “construir” aquele texto ou imagem solicitados. Trata-se da mesma tecnologia que melhorou, e muito, os tradutores de línguas que encontramos pela internet. O que, mais uma vez, é tencionado na educação é a questão da autoria/plágio. Quais as fontes e quem criou aquele texto? É uma autoria individual, coletiva, do algoritmo, uma cópia, um pastiche? A mesma tensão na autoria foi criticada por educadores quando o mecanismo de “copia e cola” ficou popular nos computadores domésticos ou então quando o buscador Google se tornou mais eficiente e popular. Qual seria o impacto da IA generativa nos processos de aprendizagem por parte de estudantes? Eu acredito que o foco dos gestores educacionais está no problema errado. O que a IA generativa entrega ainda é muitas vezes impreciso e incompleto; só quem já a utiliza conhece suas limitações. Mas ela não vai parar de melhorar. O que as tecnologias de processamento de linguagem natural nos impõem, no fim das contas, é um questionamento sobre como educamos. Há uma crise na educação, mas ela não mora somente no desenvolvimento ético da IA, mas no modus operandi da escola. É uma questão de anacronismo mesmo. O que estará em jogo daqui para frente é a superação da velha educação, que há tempos Paulo Freire chamou de “educação bancária”. Isso porque os alunos tinham o conhecimento “depositado” neles, e depois retirado, por meio de provas sobre o conteúdo lecionado. Quando seremos capazes de utilizar mais amplamente metodologias, em alguns casos chamadas de “ativas”, que estimulem os alunos a levantarem excelentes questões, e não decorarem resultados prontos? Quando estimularemos finalmente a criatividade? Que modelo de currículo é capaz de virar essa chave? São perguntas importantes que passam necessariamente pela formação inicial e continuada dos professores.

 

Instituto Palavra Aberta – Como fica o pensamento crítico, sobretudo no aprendizado, diante do maior uso de IA generativa?

Alexandre Le Voci Sayad – Pensamento crítico tornou-se um conceito problemático. Educadores e marqueteiros de escolas privadas o utilizaram nas últimas décadas de maneira tão indiscriminada, que ele acabou se esvaziando de sentido. Para essa pesquisa, fui na raiz do que poderia significar pensar criticamente. No caso dos meios de comunicação de massa, pré-algoritmos, o conceito propunha um olhar aprofundado sobre a cultura popular “enlatada” – novelas, folhetins, filmes e histórias em quadrinhos, por exemplo. Quando pensamos na IA, isso não faz mais tanto sentido.

O norte-americano John Dewey, bem como seu aprendiz, o educador baiano Anísio Teixeira, levaram à introdução do pensamento crítico com força nos currículos e propostas escolares. Entretanto, um pesquisador dos Estados Unidos, chamado John McPeck, desenvolveu um olhar bem interessante no campo mais amplo, longe dos pesquisadores críticos da comunicação.

Para explicá-lo, gostaria de pontuar aqui a dose de ceticismo que o pensamento crítico deve envolver: diante de uma situação-problema, devemos elevar as hipóteses que temos de imediato para respondê-la. Então, pesquisemos, testamos, e só ao final do processo chegaremos a um resultado preciso. Há uma área comum com os processos do pensamento científico. Nesse sentido, o pensamento crítico frente à IA generativa significa compreender onde ela age (em que meios e com quais funções) e também de que maneira ela funciona. Só assim, educadores e estudantes poderão questionar os resultados, procurar fontes, aprofundar a pesquisa, melhorar o que lhes foi entregue pelo algoritmo e exercer algum tipo de curadoria, além de co-autoria.

 

Instituto Palavra Aberta – Como a IA pode ser uma aliada da educação midiática e quando traz prejuízos?

Alexandre Le Voci Sayad – E educação midiática, como um conjunto de práticas e também um conceito guarda-chuva, deve abraçar a inteligência artificial com urgência, respeitando sua complexidade e em muitas frentes possíveis. O desenvolvimento da IA terá neste século o impacto que a luz elétrica teve no século passado; trata-se de um impacto sistêmico, muitos autores defendem. Ou seja, falar em prejuízo significa mitigá-los, porque a IA é parte do desenvolvimento da linguagem e da técnica humanas e já apresenta muitos benefícios. O algoritmo de inteligência artificial é responsável hoje por boa parte da mediação entre o ser humano e o mundo em sua volta. De nossos empréstimos bancários às buscas no Netflix há diversas famílias de inteligência artificial em ação. Nesse sentido, ela recorta realidades, é capaz de limitar nossa visão de mundo e também conduzir nosso comportamento online, interferindo inclusive na nossa capacidade de decisão. Mas isso não é novo: a televisão o rádio, e sobretudo a publicidade e o jornalismo, já foram responsabilizados em outros tempos. Sete séculos antes, Tomás de Aquino teve sua parcela de culpa quando deliberou sobre o livre arbítrio. O assunto é tão antigo quanto a filosofia ocidental. O fato é que as tecnologias não são neutras, tampouco não é possível viver sem qualquer mediação com relação ao mundo que nos cerca – essa é a equação sobre a qual estamos debruçados. Nesse sentido, há inúmeras maneiras da educação midiática se aproximar da inteligência artificial. A primeira e mais básica é despertar o “awareness”. Ante a um ecossistema de mídias complexo, como o que temos hoje, é importante dentro da educação midiática compreender como esses mecanismos sociais funcionam. Esse é o primeiro ciclo, chamado de “compreensão”, que as primeiras práticas de educação midiática, ainda na década de 1930, deliberavam como uma primeira etapa para se compreender a mídia; na época, o rádio. Como ele funciona? Como se selecionam as informações que ele transmite? Se um fato “saiu” no rádio, significa que é verdade? Não é possível adaptar diretamente esse arcabouço de indagações, mas traçar paralelos em um mundo em rede de algoritmos e humanos, sim. Compreender o agenciamento do objeto “algoritmo” é fundamental. Entretanto, há inúmeras outras formas de aprofundar a relação da educação midiática com a inteligência artificial como, por exemplo, utilizar as ferramentas de IA generativas para produzir conteúdo e desafiar os estudantes com relação a outras produções textuais; ou quem sabe estimular a criação de prompts (janelas de interação com o usuário) para melhorar e “educar” os algoritmos. É possível até acoplar algoritmos nas aulas em robozinho, durante as aulas “maker” de robótica. Já presenciei diversas dessas atividades. No livro, pesquisei sobre a origem de um termo que tem ganhado força, que é a Alfabetização para a IA (AI Literacy), e descobri que surgiu ainda nos anos de 1990! Eu particularmente não gosto desse conceito pelo fato de se constituir como mais uma “alfabetização” para que os gestores carreguem nas costas; o que deve acontecer com o tempo é que a IA tome conta mais extensivamente do debate e das ações do campo da educação midiática. Prefiro me ater a esse desenvolvimento. Por exemplo, no campo da desinformação, em que a educação midiática é tão importante, a inteligência artificial não somente potencializa o problema das notícias falsas; ela hoje é criadora dele, parte intrínseca do sistema. Ademais, um olhar ético para o uso de dados pessoais, matéria prima da economia global hoje, e também combustível dos sistemas de IA, é uma aproximação possível e bem-vinda entre os dois campos.

 

Instituto Palavra Aberta – Quais são os limites éticos no uso da IA e como mantê-los?

Alexandre Le Voci Sayad – Não sei responder exatamente, mas consigo rascunhar alguns caminhos. Essa resposta tem a ver com transparência e inclusão. Em primeiro lugar, não é urgente imaginarmos neste momento que um sistema de inteligência artificial vai acabar com a humanidade; não há base científica que sustente um simulacro de marketing desse tamanho. Esqueçamos os escritores de ficção científica. Os impactos éticos reais são bem piores: algoritmos racistas, empregos devastados e notícias falsas quase que impossíveis de serem identificadas – tudo isso por entre uma humanidade que continua viva, sob o risco de se tornar ignorante. Como um campo multidisciplinar, cientistas da área de humanas já identificam elementos para que os processos que envolvem a inteligência artificial aconteçam de forma mais diversa e transparente possível. No campo profissional, do desenvolvimento de algoritmos, o processo de “ethics by design”, ou seja, criar padrões éticos durante o processo de trabalho, é o ideal. Isso significa atentar à base de dados e vieses possíveis de serem corrigidos. As políticas públicas devem também delinear diretrizes e limites. Temos neste momento que garantir a pluralidade das bases de dados, a inclusão da diversidade no desenvolvimento dos algoritmos, a redução da opacidade e dos vieses dos sistemas (inclusive aqueles próprios de técnica, que são as mais difíceis de derem localizados). Em outra frente, políticas públicas devem assegurar reposicionamento profissional em massa, e com celeridade. Em outro campo, a Lei Geral de Proteção de Dados deve estar atenta às rápidas mudanças no campo da IA e à concentração de mercado nas mãos de empresas de tecnologia devido, juntamente, à concentração de dados. Entretanto, quando tratamos de um marco regulador específico da inteligência artificial no Brasil, este está em debate. Apresenta-se confuso, mas isso não é exclusividade nossa. A Europa passa pelo mesmo problema porque há pouco conhecimento sistematizado sobre os impactos da inteligência artificial na sociedade. Há inclusive dúvida sobre como defini-la na lei, já que seu desenvolvimento de mescla alguns aspectos de outras áreas das tecnologias digitais, como o das árvores de decisão. Enfim, são ações complexas, que envolvem inúmeros atores, e que vão dominar parte do debate público daqui em diante, afinal a inteligência artificial não deixará ninguém para trás, bem como seus impactos positivos ou negativos.

 

Instituto Palavra Aberta – A IA é uma aliada ou uma inimiga para o jornalismo e as liberdades de imprensa e de expressão?

Alexandre Le Voci Sayad – Ela é um elemento a ser considerado no jornalismo; ora pode eliminar postos de trabalho, mas em outros momentos pode também ajudar os jornalistas. Há também um elemento simbiótico: quanto mais críticos fomos à IA, mais dependeremos do bom jornalismo; por outro lado, o bom jornalismo nos ajuda nessa construção de criticidade. A liberdade de imprensa e de expressão se qualificam pelo debate, que é tão rico e complexo quanto ao grau de educação da população. Temos que considerar que o jornalismo vive uma crise de identidade, e também de alteridade, há duas décadas. A chegada das redes sociais acentuou a mistura de papeis que existem hoje entre produtores, consumidores e curadores de informações. Todo cidadão acredita capaz de fazer um pouco de tudo isso. O que chamamos de pós-verdade coloca justamente os fatos jornalístico e científico, verdades imperfeitas, mas inabaláveis até então, em cheque, minando a reputação do campo e do próprio sistema democrático. O desenvolvimento e a popularização da inteligência artificial só veio piorar um cenário turvo que se aproximava à galope. As redações esvaziadas também estão relacionadas à pouco eficiente busca de modelos de sustentabilidade econômica dos veículos tradicionais e também à precarização das relações trabalhistas. Essa é uma crise tecnológica, política e econômica. A solução passa por uma valorização social e econômica do jornalismo profissional baseado em processos de manutenção da integridade de informação. Vale notar que esse é também um assunto da educação midiática. Não e de hoje que algoritmos de IA generativa produzem textos simples; os primeiros casos foram registrados em notícias de resultados de jogos de futebol. Nesse sentido, o jornalista mediano, que produz textos em formato padrão, não tem emprego garantido. O papel da análise complexa e em profundidade de fatos pode até ser simulada pela IA, mas é insuficiente frente às atribuições humanas. Neste momento, o jornalista capaz de relacionar fatos com complexidade, realizar análises profundas e utilizar os sistemas de IA generativa como apoio a tarefas que tomam muito tempo e pouca reflexão ainda é muito valorizado. Há ferramentas de arranjo de rotinas, sugestão de estrutura de texto, transcrição de arquivos de áudio, tradução e pesquisa que poupam tempo de quem se relaciona com a notícia. O campo da comunicação passa por uma transformação gigantesca; para além da questão da credibilidade, os profissionais que sobreviverão terão caráter interdisciplinar e flexibilidade de adaptação às transformações. Se esquecermos a imagem de Bob Woodward (não sua importância social, mas sua rotina de trabalho) nos anos de 1970 e alinharmo-nos mais ao Marcelo Tas, Iberê Tenório e Eugênio Bucci e talvez tenhamos algumas respostas.

 

    Utilizamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nossa plataforma. Ao continuar navegando, você concorda com as condições previstas na nossa Política de Privacidade.