Sempre fui fascinado por tecnologia. Comecei a programar por volta dos 16 anos, no curso de Técnico em Informática, e desde então acompanho, de perto, diversas promessas de “revolução tecnológica” que, na prática, entregaram muito menos do que os anúncios exagerados prometiam. Em pouco tempo, vimos o encantamento com o Metaverso, com colecionáveis em NFT e com tantas outras soluções que surgiram como grandes novidades e desapareceram quase sem deixar rastro na vida das pessoas.
Quando o ChatGPT começou a ganhar destaque, o movimento foi parecido. Muita gente falava em uma mudança definitiva em todos os mercados, em substituição de inúmeras profissões e em uma inteligência artificial quase mágica. Com o tempo, ficou evidente que a realidade é mais complexa. O impacto existe, é significativo, mas o ChatGPT continua sendo uma ferramenta. Ele não resolve tudo, não pensa por conta própria e não pode ser tratado como uma entidade neutra, confiável e infalível.
Neste texto, quero compartilhar uma visão mais cuidadosa e didática sobre o uso do ChatGPT, especialmente para apoiar funções executivas e para ampliar a acessibilidade de pessoas neuroatípicas, como pessoas autistas ou com TDAH. vou explicar como ele funciona, quais são seus riscos, de que forma pode ser útil, quais cuidados éticos são necessários e por que o pensamento crítico de quem usa a ferramenta é sempre a parte mais importante de todo esse processo.
Apesar de muitos discursos que circulam por aí, o ChatGPT não “pensa” e não “sabe” coisas no mesmo sentido que uma pessoa sabe. Ele é um modelo de linguagem treinado para prever qual palavra tem mais chance de aparecer a seguir em uma frase, considerando padrões que encontrou em enormes quantidades de textos. O objetivo principal é gerar uma resposta que pareça coerente, bem escrita e aceitável para quem está lendo. Isso significa que, muitas vezes, ele prioriza uma resposta convincente, e não necessariamente a mais correta, profunda ou bem fundamentada.
Uma forma de imaginar esse funcionamento é pensar em uma sala de aula durante um seminário. Você, professor, faz uma pergunta. O grupo que está apresentando combinou que uma pessoa só seguraria a cartolina, sem estudar o conteúdo. De repente, essa pessoa decide responder mesmo assim, tentando soar segura, improvisando com base no pouco que ouviu ou supõe. Às vezes ela acerta parcialmente, em outros momentos ela erra de forma confiante. O ChatGPT se comporta de maneira parecida. Ele tenta completar a resposta de forma plausível, mas isso não significa que ele compreende o assunto ou que está comprometido com a verdade.
Esse funcionamento gera uma consequência importante. O ChatGPT pode produzir textos muito bem estruturados e claros, ao mesmo tempo em que traz informações erradas, desatualizadas, distorcidas ou até inventadas. Ele não sente vergonha de errar, não avisa que está inseguro e não consegue, sozinho, diferenciar o que é um conhecimento bem consolidado do que é um boato, um preconceito ou uma simplificação grosseira.
Além disso, ele não acompanha você ao longo da sua vida da forma como muitas pessoas imaginam. A cada nova conversa, o modelo começa sem lembrar das interações anteriores, a menos que você esteja utilizando algum sistema específico de memória. Ele não aprende progressivamente com você como um terapeuta, um professor ou um colega de trabalho, e não desenvolve consciência sobre o seu contexto. Isso significa que você sempre vai precisar explicar novamente, revisar o que ele respondeu e ajustar o que foi gerado para a sua realidade.
Quando falamos em limitações, não estamos apenas descrevendo o que o ChatGPT não consegue fazer, mas também os riscos concretos que surgem se a ferramenta for usada sem cuidado. Um dos riscos mais evidentes é a confiança excessiva em respostas que parecem muito bem formuladas. Como a escrita é fluida e organizada, é comum que as pessoas interpretem esse “jeito de escrever” como garantia de competência, quando, na verdade, o modelo pode estar simplesmente repetindo padrões sem sentido crítico.
Em temas sensíveis, esse risco se torna ainda mais delicado. Em áreas como saúde, finanças, direito, educação, questões clínicas e diagnóstico, o uso acrítico do ChatGPT pode reforçar desinformação, sugerir condutas inadequadas ou desrespeitar recomendações profissionais específicas. Em contextos que envolvem pessoas autistas ou outras pessoas neurodivergentes, o modelo pode reproduzir discursos capacitistas, simplificações, estereótipos ou uma visão patologizante, porque ele foi treinado com textos que também trazem esses preconceitos.
Outro risco importante é a tendência do modelo a “inventar” detalhes. Ele pode criar referências bibliográficas que não existem, atribuir frases a autores errados, descrever leis de forma equivocada ou sugerir dados estatísticos sem qualquer fonte confiável. Para quem está escrevendo um trabalho acadêmico ou um relatório de pesquisa, isso pode comprometer todo o material. Para quem está estudando um tema delicado, o risco é construir uma compreensão distorcida.
Por isso, uma regra fundamental é considerar o ChatGPT como uma ferramenta de apoio ao pensamento, e não como substituto do pensamento. Tudo que ele produz precisa ser revisado com cuidado, comparado com fontes confiáveis, ajustado ao contexto e, quando necessário, completamente reescrito. O uso da ferramenta não elimina a responsabilidade de quem escreve, pesquisa ou toma decisões com base nos textos gerados.
Mesmo com essas limitações, o ChatGPT pode se tornar um aliado interessante no cotidiano, especialmente para pessoas que enfrentam desafios relacionados às funções executivas, como planejamento, organização, início de tarefas, gerenciamento de tempo e controle de impulsos. Muitas pessoas neuroatípicas, incluindo pessoas autistas e pessoas com TDAH, relatam que o maior obstáculo não é a capacidade de entender um conteúdo, mas sim organizar o que precisa ser feito, começar uma atividade ou transformar pensamentos soltos em algo estruturado.
Nesse sentido, a ferramenta pode ajudar a transformar uma ideia muito vaga em algo mais concreto. Por exemplo, você pode descrever, de forma simples, o que precisa fazer em um dia ou em um projeto, mesmo que a descrição pareça confusa. O ChatGPT pode pegar essa descrição e devolvê-la em forma de lista de passos, roteiro ou plano de ação. Esse tipo de reorganização pode diminuir a sensação de caos mental, reduzir sobrecarga e tornar a tarefa mais acessível.
Outro uso possível é na comunicação escrita. Muitas pessoas têm dificuldade em começar uma mensagem, especialmente em contextos formais, como e-mails, relatórios ou contatos profissionais. O medo de errar o tom ou de ser mal interpretado pode travar completamente a ação. Ao usar o ChatGPT como rascunho, é possível pedir sugestões de como iniciar uma conversa ou como organizar o texto. A partir disso, a pessoa adapta o conteúdo, ajusta as palavras e reescreve trechos que não soam naturais. O objetivo não é que a IA fale por você, e sim que ajude a ultrapassar a barreira inicial.
Em textos longos, a ferramenta também pode apoiar na revisão. Ela pode ajudar a identificar repetições desnecessárias, frases muito longas, parágrafos confusos ou problemas de pontuação. Para pessoas que têm dificuldade em perceber esses detalhes por cansaço, por hiperfoco em outros aspectos ou por sobrecarga sensorial, esse tipo de apoio pode poupar energia e tornar o processo de escrita menos desgastante. No entanto, mesmo nesses casos, é essencial ler tudo com atenção depois, para garantir que o sentido original foi mantido.
Na área da programação, a lógica é semelhante. O modelo pode apontar erros de sintaxe, sugerir melhorias ou explicar uma estrutura de código, mas ele também erra, às vezes de maneiras difíceis de perceber. Por isso, qualquer código gerado precisa ser testado, depurado e revisado com o mesmo rigor que você teria ao lidar com um código escrito por uma pessoa aprendiz. A IA não substitui a necessidade de compreender o que o código faz, e confiar cegamente nele pode gerar falhas de segurança ou comportamentos indesejados.
Além dos aspectos práticos, o uso do ChatGPT envolve questões éticas que não podem ser ignoradas. Uma das principais discussões recentes gira em torno do uso de textos de escritores, roteiristas, jornalistas e outros profissionais para treinar modelos de linguagem sem consentimento e sem remuneração adequada. Isso levanta perguntas sobre exploração de trabalho intelectual, desvalorização de profissões criativas e possível plágio estrutural, mesmo quando a ferramenta não copia um trecho literalmente.
Quando alguém usa o ChatGPT para criar um texto “no estilo” de um autor ou autora, ou para substituir totalmente o trabalho de profissionais da escrita, da tradução ou da revisão, não está apenas economizando tempo. Também está fortalecendo uma lógica que trata a produção intelectual como algo facilmente substituível, apagando o esforço, a trajetória e o contexto de quem produz conhecimento e arte. Utilizar a ferramenta com responsabilidade implica reconhecer que ela não pode ser usada para eliminar ou deslegitimar o trabalho humano.
Outra preocupação importante envolve a privacidade e a proteção de dados. Ao digitar informações no ChatGPT, você está compartilhando conteúdo com uma empresa que opera essa ferramenta. Isso exige atenção redobrada quando o assunto são dados sensíveis. Informações sigilosas de trabalho, dados de clientes, relatórios clínicos, prontuários, detalhes de pesquisas em andamento, histórias pessoais de pessoas autistas ou de outros grupos, tudo isso precisa ser tratado com muito cuidado. Em muitos casos, o mais seguro é não inserir essas informações na ferramenta.
É fundamental seguir políticas da sua instituição, da sua empresa ou do seu grupo de pesquisa. Muitos ambientes profissionais possuem orientações específicas sobre o que pode ou não ser enviado para serviços externos, inclusive ferramentas de IA. Respeitar essas diretrizes é parte de um compromisso ético com a segurança e com o cuidado em relação às pessoas envolvidas.
O ChatGPT pode ser uma ferramenta poderosa de apoio, especialmente quando pensamos em funções executivas, organização de ideias, revisão de textos e facilitação da comunicação escrita. Para pessoas neuroatípicas, ele pode servir como uma espécie de “apoio externo” para estruturar tarefas, planejar rotinas e diminuir a ansiedade em situações de escrita formal. Tudo isso, no entanto, só é verdade quando o uso é acompanhado de consciência crítica.
Usar o ChatGPT de forma ética significa reconhecer suas limitações, revisar o que ele produz, validar informações em fontes confiáveis, proteger dados sensíveis, não substituir o trabalho humano em áreas que exigem responsabilidade profissional e compreender que nenhuma resposta automática é neutra ou totalmente objetiva. A ferramenta é construída sobre textos produzidos por pessoas, em contextos sociais marcados por desigualdades e preconceitos. Por isso, ela também carrega, em suas respostas, vestígios dessas estruturas.
No fim das contas, a questão central não é se o ChatGPT é bom ou ruim em si, mas como você escolhe usá-lo. Quando encaramos a ferramenta como um apoio à nossa capacidade de pensar, criar, planejar e comunicar, sem abrir mão da revisão, da ética e da responsabilidade, ela pode se tornar um recurso interessante para tornar a vida cotidiana um pouco mais acessível, organizada e menos sobrecarregada, especialmente para quem já convive com desafios nas funções executivas e nas dinâmicas sociais.
A tecnologia, por si só, não é garantia de inclusão, justiça ou cuidado. são as escolhas de quem a utiliza, de quem regula seu uso e de quem é afetado por ela que definem se ela será um instrumento de apoio ou mais um mecanismo de exclusão. Olhar para o ChatGPT com atenção crítica e, ao mesmo tempo, com curiosidade e cuidado, é um passo importante para construir usos mais responsáveis, acessíveis e humanos dessa e de outras inteligências artificiais.