22 fev, 2026
0 ° C

IA não é inimiga de trabalhos escritos, mas demanda cautela e ética

Em projeto-piloto de um programa da Universidade de Boston, estudantes aprenderam a aplicar grandes modelos de linguagem (LLMs) sem perder o estilo pessoal

Shutterstock
IA agêntica: o diferencial que pode transformar vendas em datas sazonais como o Dia das Crianças

Para o professor Christopher McVey, do programa de escrita da Universidade de Boston, a inteligência artificial (IA), em especial os grandes modelos de linguagem (LLMs), não é inimiga dos trabalhos escritos, que são uma tradição do ensino de graduação. O ponto de vista do pesquisador foi reforçado por um projeto-piloto realizado em 2024, que envolveu a aplicação de LLMs do qual foram extraídas três lições.

A primeira delas destaca a importância de focar no processo de escrita e na chamada “engenharia de prompts”. Neste último caso, de forma simplificada, trata-se de entender como fazer as perguntas certas para que as ferramentas de IA sejam um co-piloto eficiente para os alunos de graduação.

De acordo com McVey, a engenharia de prompts é uma habilidade importante a ser aprimorada, mas os estudantes só conseguem fazer boas perguntas se tiverem tempo para identificar seus objetivos e refletir sobre como usar melhor a IA generativa em cada etapa do processo de escrita.

Ele ressalta que essas habilidades sempre foram importantes em cursos de escrita e pesquisa, e permanecem essenciais. E que existem métodos que permitem aplicá-las no uso de IAs, entre eles a orientação inicial dos professores sobre o uso delas na pesquisa de tópico, formulação de perguntas, busca de fontes, criação de um esboço, desenvolvimento do rascunho e revisão.

Políticas de uso de IA em trabalhos escritos

A segunda lição apontada por McVey envolve o estabelecimento de políticas claras para o uso da IA, discutidas em comum acordo com os estudantes. Trata-se de uma discussão importante, pois muitos deles se preocupam com a possibilidade de que qualquer uso de IA possa levar rapidamente a acusações de fraude. A incerteza sobre a política de uso – ou sobre como atribuí-la corretamente – tem levado alguns estudantes a evitar completamente a tecnologia, segundo o pesquisador.

Ele destaca que os estilos de citação padrão para uso da IA ainda estão em estágio inicial e frequentemente não conseguem capturar as diversas formas como os estudantes interagem com o software.

A experiência do projeto-piloto coordenado por McVey mostrou que, quando os estudantes têm “um lugar à mesa” para discutir o uso permitido ou proibido da IA generativa, eles frequentemente superam as expectativas em termos de transparência.

Transparência

Um dos exemplos foi a identificação do texto gerado por IA com uma cor de fonte diferente nos trabalhos, além de uma declaração de uso ao final dos textos, detalhando o software utilizado e de que maneira foi empregado. Alguns estudantes chegaram a enviar registros das conversas (“chatlogs”) e notas sobre o que gostaram ou não ao trabalhar com a IA.

Essa abordagem mudou, de acordo com McVey, a atmosfera de policiamento para uma de colaboração e reflexão. Ele lembra, no entanto, que é recomendável estabelecer um limite para o uso da IA na construção dos textos acadêmicos.

A terceira e última lição do pesquisador é que a “voz humana” no texto escrito está mais valorizada do que nunca. Uma das observações feitas por ele é que, mesmo quando foi permitido o uso da IA para composição, muitos estudantes acharam os textos gerados muito “frios” ou “inautênticos”. Em outras palavras: “não soavam como se fossem eles que os tivessem escrito”.

As avaliações foram resumidas pelo pesquisador no artigo publicado por ele na Harvard Business Review. Segundo McVey, a função de co-piloto da IA também ajudou os estudantes a encontrarem valor na linguagem produzida por seres humanos reais e informada pela experiência vivida. Para ele, o experimento mostrou uma valorização crescente da própria voz por parte dos alunos.

Outro ponto importante foi a discussão sobre o viés da linguagem escrita na academia. Na avaliação do professor, o estilo de escrita padrão do ChatGPT se assemelha ao de homens brancos. Ao refletirem sobre isso, os estudantes foram incentivados a usar seu próprio estilo antes de recorrer à IA como ferramenta auxiliar. Em resumo: a cultivarem uma escrita “imperfeitamente humana”.

O projeto-piloto também apontou que é possível transformar a crise gerada – pelo uso da IA nos trabalhos escritos – em oportunidade. Dentro dessa proposta, o estudo reforçou o papel fundamental dos professores na preparação dos alunos para utilizarem a IA como suporte na escrita, tanto dentro quanto fora do ambiente acadêmico.

What's your reaction?