Introdução ao Prompt Engineering com ChatGPT

Carga horária no certificado: 80 horas

⭐⭐⭐⭐⭐ 187.205    🌐 Português    

  • Estude o material abaixo. O conteúdo é curtinho e ilustrado.
  • Ao finalizar, adquira o certificado em seu nome por R$49,90.
  • Enviamos o certificado do curso e também os das lições.
  • Não há cadastros ou provas finais. O aluno estuda e se certifica por isso. 
  • Os certificados complementares são reconhecidos e válidos em todo o país.
  • Receba o certificado em PDF no e-mail informado no pedido.

Criado por: Fernando Henrique Kerchner

Introdução ao Prompt Engineering com ChatGPT

Carga horária no certificado: 80 horas

  ⭐⭐⭐⭐⭐ 87.205  🌐 Português

  • Leia todo o material do curso abaixo
  • Ao finalizar, adquira o certificado
  • Receba o certificado do curso e os das lições
  • Não há cadastros ou provas finais
  • Certificados válidos em todo o país
  • Receba o certificado em PDF no e-mail

  Criado por: Fernando Henrique Kerchner

 

 

Olá, caro aluno! Tudo bem?

Vire o seu dispositivo na vertical para

uma melhor experiência de estudo.

Bons estudos!  =)

Onde usar os certificados:

💼 Processos Seletivos (Vagas de emprego)

🏆 Prova de Títulos (Empresa)

👩‍🏫 Atividades Extras (Faculdade)

📝 Pontuação (Concursos Públicos)

Não há cadastros ou provas. O aluno apenas estuda o material abaixo e se certifica por isso.

Ao final da leitura, adquira os 10 certificados deste curso por apenas R$47,00.

Você recebe os certificados em PDF por e-mail em 5 minutinhos.

Bons estudos!

Bem-vindo(a)! Nosso curso online já começou. Leia todo o material abaixo e se certifique. Não há provas finais. Bons estudos e sucesso!

Formações complementares são excelentes para fins de processos seletivos, provas de títulos na empresa, entrega de horas extracurriculares na faculdade e pontuação em concursos públicos.

Carga horária no certificado: 180 horas

Introdução ao Prompt Engineering com Chat GPT - Curso online grátis profissionalizante complementar

A disciplina que hoje conhecemos como Prompt Engineering não surgiu do nada; ela é um desdobramento natural da evolução da inteligência artificial e, mais especificamente, do processamento de linguagem natural. Para entender onde ela começou, precisamos olhar para trás, para os primórdios dos modelos de linguagem e como os pesquisadores e usuários interagiam com eles.

No início, a interação com sistemas de IA focados em linguagem era muito mais rudimentar. Falamos de sistemas que, por exemplo, tentavam responder a perguntas simples ou gerar frases curtas com base em padrões estatísticos ou regras pré-definidas. A “entrada” nesses sistemas era, na maioria das vezes, uma frase direta ou um conjunto limitado de palavras-chave. Não havia, nesse ponto, uma grande necessidade de “engenharia” da entrada, pois a capacidade de resposta do modelo era bastante restrita.

 

As Primeiras Interações com Modelos de Linguagem

Os primeiros modelos de linguagem estatísticos e baseados em regras não eram capazes de compreender nuances ou contexto de forma profunda. A forma como se obtinha uma saída desejada era, em grande parte, uma questão de tentativa e erro com variações simples da entrada ou ajustando parâmetros internos do próprio modelo, algo que estava longe do alcance do usuário comum. Com a chegada de modelos baseados em redes neurais, como as Redes Neurais Recorrentes (RNNs) e, posteriormente, as arquiteturas de Transformadores, a capacidade dos modelos de processar e gerar texto deu um salto significativo. No entanto, mesmo esses modelos mais avançados ainda precisavam de uma forma de serem direcionados.

Por exemplo, em modelos sequenciais mais antigos, se você quisesse que o modelo continuasse um texto, você simplesmente fornecia o início da frase. Se o modelo gerasse algo indesejado, não havia muito o que fazer além de tentar novamente com a mesma entrada ou uma ligeiramente diferente, esperando um resultado aleatório mais favorável. Não existia a ideia de que a estrutura ou a formulação da sua entrada (o prompt) poderia influenciar de forma significativa e controlável a saída gerada. A interação era mais reativa do que proativa no sentido de guiar o modelo.

 

O Surgimento da Necessidade de Instruções Claras

À medida que os modelos de linguagem se tornaram maiores e mais capazes, eles passaram a conseguir realizar uma variedade maior de tarefas, como tradução, sumarização e até mesmo geração de texto criativo. Foi nesse ponto que a comunidade de pesquisa começou a perceber que a maneira como a entrada era formatada importava, e importava muito. Não bastava apenas fornecer o texto a ser processado; a instrução ou o “pedido” precisava ser claro para que o modelo entendesse o que era esperado dele.

Imagine que você tinha um modelo capaz de gerar sinopses de filmes. No início, talvez bastasse dar o título do filme. Mas se você quisesse uma sinopse focada em um aspecto específico da trama ou com um certo tom, apenas o título não seria suficiente. Começou-se então a adicionar frases como “Escreva uma sinopse para o filme X” ou “Resuma a história do filme Y”. Embora pareça simples hoje, adicionar essa instrução explícita à entrada foi um passo importante. Isso mostrou que o modelo não apenas processava o texto fornecido, mas também tentava seguir uma instrução contida nesse texto. Essa foi uma das primeiras formas intuitivas do que viria a ser o Prompt Engineering: adicionar contexto e instrução ao dado de entrada.

 

A Transição para Modelos Maiores e a Complexidade dos Prompts

Com o advento dos modelos de linguagem grande (LLMs), como os que impulsionam o ChatGPT, a complexidade e a capacidade dos modelos explodiram. Esses modelos foram treinados em quantidades massivas de texto da internet, adquirindo uma compreensão vasta sobre linguagem, fatos e diferentes estilos de comunicação. Essa capacidade expandida trouxe um desafio e uma oportunidade: como acessar e direcionar essa vasta quantidade de conhecimento de forma precisa?

Foi neste cenário que o Prompt Engineering começou a se solidificar como uma “engenharia”. Não era mais apenas uma questão de dar uma instrução simples, mas de elaborar a entrada de forma estratégica para extrair o melhor desempenho possível do modelo para uma tarefa específica. Pesquisadores e praticantes começaram a experimentar diferentes formas de estruturar os prompts, descobrindo que detalhes como a inclusão de exemplos (técnica conhecida como few-shot learning, onde poucos exemplos são dados no próprio prompt), a especificação do formato de saída desejado, ou a definição de uma “persona” para o modelo podiam ter um impacto dramático na qualidade e relevância da resposta.

Por exemplo, em vez de apenas pedir “escreva um poema sobre a primavera”, um prompt de Prompt Engineering mais elaborado poderia ser: “Atue como um poeta romântico do século XIX. Escreva um poema em quatro estrofes, com rimas alternadas (ABAB), sobre a chegada da primavera em um campo inglês, mencionando o desabrochar das flores e o canto dos pássaros. O tom deve ser de admiração e leve melancolia pela passagem do tempo.” Este exemplo demonstra como múltiplos elementos são combinados no prompt para guiar o modelo a gerar um resultado que atenda a critérios muito específicos de estilo, forma e conteúdo, algo impensável com modelos anteriores que simplesmente tentariam continuar a frase “escreva um poema sobre a primavera” de forma mais genérica.

A necessidade de experimentar e refinar essas entradas levou ao desenvolvimento de metodologias e melhores práticas. As pessoas começaram a compartilhar suas descobertas sobre quais tipos de prompts funcionavam melhor para quais tarefas, criando uma base de conhecimento informal que gradualmente deu origem ao campo formal do Prompt Engineering. O foco inicial estava em descobrir as sensibilidades dos modelos: o que os fazia gerar respostas mais precisas, criativas, coerentes ou úteis.

Este período inicial do desenvolvimento do Prompt Engineering foi marcado pela exploração e pela tentativa de mapear a “interface” desses modelos complexos. Entender como pequenas mudanças na formulação de uma pergunta ou instrução poderiam levar a grandes diferenças na resposta gerada tornou-se crucial para quem queria utilizar todo o potencial desses modelos de linguagem grande. Era um campo em rápida evolução, impulsionado pela curiosidade e pela necessidade prática de fazer com que os modelos de IA gerassem resultados úteis para uma variedade crescente de aplicações. Assim, o que começou como simples tentativas de interagir com sistemas de linguagem evoluiu para uma disciplina estratégica focada em otimizar a comunicação entre humanos e modelos de IA através da arte e ciência de criar prompts eficazes.

 

Como elaborar prompts eficazes para obter respostas precisas do ChatGPT?

Dominar a arte e a ciência de elaborar prompts eficazes é fundamental para quem deseja extrair o máximo desempenho e a precisão dos modelos de linguagem grande como o ChatGPT. A qualidade da saída gerada por esses modelos está intrinsecamente ligada à qualidade da entrada que lhes fornecemos. Um prompt bem estruturado atua como um guia claro, minimizando a ambiguidade e direcionando o modelo para o caminho cognitivo desejado, resultando em respostas mais úteis e alinhadas às nossas expectativas profissionais.

 

A Importância Crucial da Clareza e Especificidade

O primeiro pilar de um prompt eficaz no Prompt Engineering é a clareza. Sua solicitação deve ser formulada de maneira inequívoca, evitando jargões desnecessários que o modelo possa não interpretar corretamente no contexto desejado ou frases excessivamente vagas que abrem margem para múltiplas interpretações. A especificidade complementa a clareza; quanto mais detalhado você for sobre o que espera, menor a chance de receber uma resposta genérica ou tangencial. Em vez de uma solicitação ampla como “Quero informações sobre energias renováveis”, que poderia resultar em um apanhado superficial sobre diversas fontes, um prompt específico seria: “Explique o funcionamento detalhado de um painel solar fotovoltaico, abordando desde a conversão da luz solar em eletricidade até os componentes essenciais do sistema. Inclua também os principais desafios da tecnologia atual”. Essa abordagem direciona o modelo para um tópico particular dentro de um campo vasto, garantindo que a resposta se aprofunde no assunto desejado.

Vamos aprofundar o exemplo do redator mencionado anteriormente. Um redator que precisa de ideias para um artigo sobre alimentação saudável poderia começar com o prompt ineficaz “Ideias para blog de saúde”. A resposta do ChatGPT para isso seria provavelmente uma lista genérica que poderia incluir “Benefícios da caminhada”, “Dicas para dormir melhor”, “Importância da hidratação”, além de algumas ideias relacionadas à alimentação, como “Alimentos para emagrecer” ou “Receitas saudáveis”.

Embora algumas ideias possam ser úteis, a maioria estaria fora do escopo desejado, pois o termo “saúde” é vasto. Aplicando princípios de Prompt Engineering, um prompt eficaz para o mesmo redator seria:

“Gere 5 títulos criativos e apelativos para um artigo de blog focado exclusivamente nos benefícios da dieta mediterrânea para a saúde cardiovascular em adultos acima de 50 anos. Os títulos devem instigar o clique e destacar a relação entre a dieta e a prevenção de doenças do coração nesta faixa etária específica.”

Note a diferença: o formato de saída (5 títulos criativos), o tópico principal (dieta mediterrânea), o benefício específico (saúde cardiovascular), o público-alvo (adultos acima de 50 anos) e até o objetivo dos títulos (instigar o clique, destacar a relação) foram claramente definidos.

O ChatGPT, munido dessas restrições e especificações, é capaz de gerar títulos muito mais relevantes e utilizáveis, como “Coração Blindado Após os 50: Como a Dieta Mediterrânea Pode Ser Sua Aliada”, “O Segredo do Mediterrâneo Para Artérias Jovens Depois dos 50”, ou “Previna Problemas Cardíacos: Adote a Dieta Mediterrânea e Viva Mais e Melhor Após a Quinta Década”. A precisão aumentou drasticamente.

 

Fornecendo Contexto Rico e Relevante

O contexto é, sem dúvida, um dos elementos mais poderosos no Prompt Engineering. O ChatGPT não tem conhecimento intrínseco da sua situação particular, do documento que você está analisando ou do papel que você gostaria que ele desempenhasse. Fornecer contexto relevante no prompt permite que o modelo ajuste sua resposta para ser mais adequada à sua necessidade específica. Ignorar o contexto frequentemente leva a respostas genéricas que exigirão muito trabalho manual para adaptação.

Vamos revisitar o exemplo do profissional de RH. Se ele apenas usar o prompt “Escreva descrição de cargo para gerente de projeto”, a resposta do ChatGPT será uma descrição genérica que poderia servir para um gerente de projeto em construção civil, em desenvolvimento de software tradicional, ou em qualquer outra área. Faltariam os detalhes cruciais que tornam a vaga única. Com uma abordagem de Prompt Engineering, o prompt expandido seria:

“Atuando como um especialista em recrutamento de TI, escreva uma descrição de cargo detalhada para a posição de Gerente de Projetos de Desenvolvimento de Software em uma startup de tecnologia de médio porte que utiliza primariamente metodologias ágeis (Scrum/Kanban). A descrição deve incluir: Resumo da Posição, Responsabilidades Principais (com foco em liderança de equipe técnica, gestão de backlog, sprints e comunicação com stakeholders), Requisitos de Experiência (mínimo de 5 anos em gestão de projetos de software, experiência comprovada com metodologias ágeis), Qualificações Educacionais (graduação em Ciência da Computação, Engenharia de Software ou área relacionada; certificações ágeis são um diferencial), Habilidades Comportamentais (fortes habilidades de liderança, comunicação clara, capacidade de resolver conflitos, proatividade) e Informações Adicionais (reporte direto ao Head de Engenharia, ambiente de trabalho dinâmico e colaborativo). O tom da descrição deve ser profissional, mas atraente para talentos da área de tecnologia.”

Neste prompt, o profissional de RH forneceu um papel para o modelo (“especialista em recrutamento de TI”), o tipo específico de gerente de projeto (desenvolvimento de software), o contexto da empresa (startup de tecnologia, médio porte, metodologias ágeis), e detalhou explicitamente cada seção necessária da descrição. Isso evita que o ChatGPT gere uma descrição genérica e garante que a saída seja altamente customizada para a vaga real, economizando horas de edição.

 

Definindo o Formato e Estilo Desejados na Saída

Especificar o formato e o estilo desejados na resposta é uma técnica poderosa de Prompt Engineering para moldar a estrutura e a apresentação da informação. Se você não definir o formato, o ChatGPT escolherá um padrão, que nem sempre será o ideal para o seu uso. O estilo define a linguagem, o tom e a formalidade da resposta, permitindo adequá-la ao seu público ou propósito.

Considerando novamente o exemplo de resumir um texto. Se você simplesmente disser “Resuma o texto abaixo: [texto]”, o ChatGPT pode devolver um único parágrafo longo que, embora contenha as informações principais, pode ser difícil de ler ou usar em uma apresentação. Um prompt que aplica Prompt Engineering de forma eficaz seria:

“Leia o texto a seguir sobre a história da internet. Resuma as cinco etapas mais importantes do seu desenvolvimento desde a ARPANET até a World Wide Web. Apresente o resumo em uma lista numerada, onde cada item da lista comece com o ano ou período relevante e seja seguido por uma descrição concisa de no máximo duas frases sobre o marco histórico. Use um linguagem informativa e direta.”

Aqui, você definiu o foco do resumo (cinco etapas importantes, da ARPANET à WWW), o formato (lista numerada), a estrutura de cada item (ano/período + descrição), uma restrição de tamanho por item (máximo duas frases) e o estilo (informativa e direta). O resultado será um resumo estruturado e fácil de usar. Outro exemplo, para o educador que quer explicar a fotossíntese: um prompt ineficaz seria “Explique fotossíntese para crianças”, o que pode gerar uma explicação muito técnica ou inadequada para a idade. Um prompt eficaz é: “Atuando como um professor de ciências para crianças de 8 anos, explique o processo de fotossíntese. Use linguagem muito simples, evite termos científicos complexos sempre que possível e utilize analogias do dia a dia (como uma planta ‘comendo’ luz do sol) para facilitar a compreensão. A explicação deve ter no máximo 200 palavras.” Este prompt define um papel (professor para crianças), o público-alvo (crianças de 8 anos), impõe restrições de linguagem (muito simples, evitar termos complexos), solicita uma técnica didática específica (analogias) e define um limite de tamanho. A resposta será uma explicação clara, amigável e apropriada para a idade.

 

Utilizando Palavras-Chave Estratégicas e Impondo Restrições Precisas

O uso inteligente de palavras-chave e a imposição de restrições são técnicas valiosas no Prompt Engineering para refinar ainda mais a saída do ChatGPT. Palavras-chave ajudam a ancorar a resposta nos tópicos que você considera mais importantes, enquanto as restrições atuam como guardrails, limitando o escopo da resposta e evitando informações indesejadas ou imprecisões.

No exemplo do desenvolvedor pedindo código Python, o prompt ineficaz “Escreva código Python para calcular média” é vago. Ele não especifica a versão do Python, o tipo de dado de entrada (lista, tupla, etc.), ou como lidar com casos especiais como uma lista vazia. O ChatGPT pode retornar um código simples que não atende aos requisitos de um ambiente de produção, por exemplo. Aplicando Prompt Engineering, um prompt muito mais preciso seria:

“Escreva uma função em Python 3.9 ou superior que receba uma lista de números (inteiros ou floats) como entrada. A função deve calcular a média aritmética desses números. Se a lista de entrada estiver vazia, a função deve retornar 0 e não gerar um erro. Inclua docstrings explicando o propósito da função, seus parâmetros e o que retorna. Não utilize bibliotecas externas como NumPy ou Pandas, apenas funcionalidades built-in do Python.”

Aqui, as palavras-chave (“função”, “lista de números”, “média aritmética”, “docstrings”, “built-in”) direcionam o tipo de código esperado, e as restrições (“Python 3.9 ou superior”, “retornar 0 se lista vazia”, “não usar bibliotecas externas”) garantem que o código gerado seja diretamente utilizável e atenda a requisitos técnicos específicos, demonstrando o poder das restrições bem definidas no Prompt Engineering para tarefas de programação.

 

A Natureza Iterativa do Prompt Engineering

É essencial reconhecer que o Prompt Engineering é, inerentemente, um processo iterativo. Raramente você acertará o prompt perfeito na primeira tentativa, especialmente para tarefas complexas ou nuances de estilo. A habilidade de analisar a resposta gerada pelo ChatGPT e refinar seu prompt com base nessa análise é uma competência crucial. Veja a resposta como um feedback do modelo sobre a sua instrução. Se a resposta não atendeu plenamente, isso indica que a instrução inicial não foi suficientemente clara, contextualizada, específica ou restritiva.

Retomando o exemplo das ideias de marketing. Se o primeiro prompt (“Gere ideias de marketing para um novo software de gestão de tempo”) gerou ideias muito genéricas (como “criar redes sociais” ou “fazer anúncios online”), o profissional de marketing não deve parar por aí. A iteração envolveria analisar por que as ideias foram genéricas – talvez faltou contexto sobre o produto ou o público. O próximo prompt, aplicando a iteração do Prompt Engineering, seria uma versão refinada:

“Com base nas ideias anteriores, que foram um bom ponto de partida, preciso de algo mais direcionado para o meu produto: um software de gestão de tempo premium focado em freelancers criativos (designers, redatores, artistas visuais). O objetivo é gerar leads qualificados. Foque especificamente em canais de marketing digital como Instagram, LinkedIn e newsletters segmentadas. Gere 3 ideias de campanha detalhadas, incluindo para cada uma: o conceito principal, o canal primário, o tipo de conteúdo a ser criado e uma chamada para ação sugerida. O tom deve ser aspiracional e focado em como o software libera tempo para a criatividade.”

Nesta iteração, o profissional de marketing adicionou informações cruciais sobre o produto (premium, para freelancers criativos), o objetivo (leads qualificados), canais específicos e detalhou o formato e o conteúdo esperado para cada ideia de campanha. Esta iteração é um exemplo prático de como ajustar o prompt com base no resultado inicial para obter uma saída que se alinha muito mais de perto com a necessidade de negócio.

 

Quais técnicas avançadas de Prompt Engineering otimizam a interação com modelos de linguagem?

Após dominar os princípios fundamentais de clareza, especificidade e contexto na elaboração de prompts, é hora de explorar técnicas mais sofisticadas de Prompt Engineering que permitem ir além, obtendo resultados ainda mais precisos, estruturados e inteligentes do ChatGPT. Essas técnicas avançadas capitalizam a capacidade do modelo de processar informações complexas e seguir instruções multifacetadas, transformando a interação de uma simples pergunta/resposta em um processo de co-criação altamente direcionado.

 

Utilizando Few-Shot Learning Dentro do Prompt

Uma das técnicas mais poderosas no Prompt Engineering é a inclusão de exemplos diretamente no prompt. Conhecida como Few-Shot Learning (aprendizado com poucos exemplos), essa abordagem mostra ao modelo o padrão exato de entrada e saída que você espera. Em vez de apenas descrever a tarefa, você demonstra como ela deve ser realizada, e o modelo tenta seguir esse padrão para a nova entrada que você fornecer. Isso é particularmente eficaz para tarefas que envolvem seguir um formato ou estilo muito específico, ou para as quais uma descrição textual pode ser ambígua.

Por exemplo, imagine que você precisa extrair informações específicas de descrições de produtos em texto corrido e formatá-las como dados estruturados. Um prompt simples como “Extraia nome do produto, preço e cor das descrições” pode não funcionar bem se as descrições tiverem formatos variados. Aplicando Few-Shot Prompting, você criaria um prompt que inclui um ou mais exemplos:

Extraia as informações solicitadas das descrições de produtos a seguir, seguindo o formato JSON.

Descrição: Camiseta de Algodão Orgânico Azul Marinho, Tamanho M. Preço: R$ 55,90. Perfeita para o verão.

JSON: {“produto”: “Camiseta de Algodão Orgânico”, “cor”: “Azul Marinho”, “preco”: “R$ 55,90”, “tamanho”: “M”}

Descrição: Smartphone XYZ Modelo 2024. Cor Prata. 128GB de armazenamento.

Preço R$ 2.599,00 em 10x. Tela OLED. JSON: {“produto”: “Smartphone XYZ Modelo 2024”, “cor”: “Prata”, “preco”: “R$ 2.599,00”, “armazenamento”: “128GB”}

Descrição: [Nova descrição de produto para extrair as informações] JSON:

Neste prompt, os dois primeiros pares “Descrição: / JSON:” são os exemplos few-shot. Eles mostram ao ChatGPT exatamente qual informação extrair (produto, cor, preco, tamanho, armazenamento) e em qual formato estruturado (JSON) ela deve ser apresentada. Mesmo que a nova descrição de produto tenha uma estrutura de frase ligeiramente diferente dos exemplos, o modelo aprende o padrão de extração e formatação com base nos pares fornecidos e aplicará esse padrão à nova entrada, resultando em uma extração de dados muito mais precisa e consistente do que seria possível com um prompt sem exemplos. Esta técnica é um pilar do Prompt Engineering para estruturação e extração de dados.

 

Guiando o Raciocínio com Chain-of-Thought Prompting

Algumas tarefas exigem que o modelo realize um raciocínio ou uma série de etapas intermediárias para chegar à resposta final correta. O Chain-of-Thought Prompting (ou CoT Prompting) é uma técnica avançada de Prompt Engineering que instrui o modelo a explicitar seu processo de raciocínio passo a passo antes de apresentar a resposta final. Isso não só aumenta a transparência do modelo, permitindo que você veja como ele chegou à conclusão, mas, crucialmente, melhora a precisão em tarefas que envolvem lógica, aritmética ou múltiplos passos de inferência. Ao forçar o modelo a “pensar” em voz alta, reduz-se a probabilidade de erros precipitados.

Considere a seguinte pergunta que requer um pouco de lógica: “João tem 15 bolinhas de gude. Ele deu 3 para Maria e depois comprou mais 5. Quantas bolinhas de gude João tem agora?” Um prompt direto pode levar o modelo a calcular incorretamente. Com Chain-of-Thought Prompting, o prompt seria formulado para solicitar o raciocínio:

Por favor, pense passo a passo antes de dar a resposta final.

João tem 15 bolinhas de gude. Ele deu 3 para Maria e depois comprou mais 5. Quantas bolinhas de gude João tem agora?

Ao adicionar a frase “Por favor, pense passo a passo antes de dar a resposta final.” ou explicitamente pedir por um “Raciocínio:”, você encoraja o ChatGPT a decompor o problema:

  • Raciocínio:
  • 1. João começou com 15 bolinhas.
  • 2. Ele deu 3 para Maria. Então, subtraímos 3 de 15: 15 – 3 = 12.
  • 3. Depois, ele comprou mais 5. Então, somamos 5 ao resultado anterior: 12 + 5 = 17.
  • 4. O número final de bolinhas de gude é 17.
  • Resposta final: João tem 17 bolinhas de gude agora.

Este processo de raciocínio explícito, guiado pela técnica de CoT Prompting, torna o modelo mais propenso a realizar os cálculos intermediários corretamente, diminuindo a chance de um erro aritmético ou lógico na resposta final. É uma técnica poderosa para otimizar a precisão em tarefas que exigem mais do que apenas recuperação de informação direta.

 

Definindo uma Persona para o Modelo

Outra técnica avançada de Prompt Engineering é solicitar que o ChatGPT adote uma persona específica ao gerar a resposta. Isso influencia diretamente o estilo, o tom, o vocabulário e até mesmo a perspectiva do modelo. Definir uma persona é útil quando você precisa que a resposta seja apresentada de uma maneira particular, seja para simular uma interação, criar conteúdo com um estilo distinto, ou obter uma análise sob um ponto de vista específico.

Por exemplo, se você precisa de uma explicação sobre um conceito técnico de forma acessível para um público leigo, você pode pedir para o modelo atuar como um “professor do ensino médio”. Se precisa de uma crítica de um livro com um tom específico, pode pedir para atuar como um “crítico literário sarcástico”. Um prompt que utiliza a técnica de Persona-based Prompting seria:

“Atue como um consultor financeiro experiente que está explicando os riscos de investir em criptomoedas para um cliente conservador que nunca investiu antes. Use uma linguagem cuidadosa e educativa, focando nos riscos de volatilidade, falta de regulamentação e na importância da diversificação. Evite jargões técnicos excessivos.”

Neste caso, a persona do “consultor financeiro experiente” e o público-alvo (“cliente conservador”) guiam o modelo a gerar uma explicação que é informativa, mas também cautelosa e adaptada ao nível de conhecimento e perfil de risco do cliente imaginário. O tom será mais sério e focado em alertar sobre os riscos, em contraste com uma explicação neutra sobre criptomoedas. O uso de personas no Prompt Engineering permite que você adapte a saída do modelo para uma vasta gama de contextos comunicacionais.

 

Solicitando Saídas Altamente Estruturadas

Ir além de pedir listas ou parágrafos e solicitar saídas em formatos de dados específicos, como JSON, XML, CSV ou até mesmo trechos de código seguindo uma estrutura particular, é uma técnica avançada de Prompt Engineering valiosa para automação e integração com outros sistemas. Isso exige clareza extrema sobre a estrutura de saída desejada.

Um exemplo prático é a geração de dados para uma aplicação. Em vez de pedir “Liste os produtos e seus preços”, você pode precisar desses dados em um formato que um programa possa ler facilmente. O prompt seria:

“Gere uma lista de 5 produtos eletrônicos populares com seus preços médios. Formate a saída como uma array JSON, onde cada objeto na array tem as chaves ‘produto’ (string) e ‘preco_medio’ (número float). Não inclua nenhum texto adicional na resposta, apenas o JSON.”

A expectativa é que o ChatGPT responda com algo exatamente assim:

JSON

[

  {“produto”: “Smartphone”, “preco_medio”: 3500.00},

  {“produto”: “Laptop”, “preco_medio”: 5000.00},

  {“produto”: “Smartwatch”, “preco_medio”: 800.00},

  {“produto”: “Fone de Ouvido Bluetooth”, “preco_medio”: 400.00},

  {“produto”: “Smart TV”, “preco_medio”: 2500.00}

]

A especificação rigorosa do formato de saída no prompt permite obter dados que podem ser automaticamente processados por outros softwares. Esta técnica é um componente essencial do Prompt Engineering para fluxos de trabalho que dependem da integração com modelos de linguagem.

 

De que forma o Prompt Engineering pode ser aplicado para gerar diferentes tipos de conteúdo com o ChatGPT?

A geração de conteúdo é uma das aplicações mais populares dos modelos de linguagem grande, e o Prompt Engineering é a ferramenta essencial para garantir que o conteúdo gerado seja não apenas relevante, mas também preciso, engajador e adequado ao seu propósito e público. Diferentes tipos de conteúdo exigem abordagens distintas na formulação dos prompts, utilizando a combinação correta de instruções, contexto, restrições de formato e estilo.

 

Gerando Artigos de Blog e Textos Longos

Para a criação de artigos de blog, posts extensos ou outras formas de texto longo, o Prompt Engineering deve focar em fornecer uma estrutura clara e um conteúdo aprofundado. Um simples pedido para escrever sobre um tópico resultará em um texto superficial. É necessário guiar o modelo através dos diferentes pontos que devem ser abordados, a tese principal e o estilo do artigo.

Por exemplo, um profissional de marketing de conteúdo quer um artigo sobre os benefícios do trabalho remoto para a produtividade. Um prompt ineficaz seria “Escreva um artigo sobre trabalho remoto”. Isso geraria um texto genérico. Um prompt eficaz, aplicando Prompt Engineering, seria:

“Escreva um artigo de blog com aproximadamente 800 palavras explorando como o trabalho remoto pode aumentar a produtividade dos funcionários. O artigo deve começar com uma introdução que apresenta a mudança no paradigma do trabalho, seguida por seções separadas (use subtítulos) detalhando benefícios como flexibilidade de horários, redução de distrações do escritório, eliminação do tempo de deslocamento e o potencial para maior autonomia. Inclua um parágrafo sobre a importância da autodisciplina. O tom deve ser informativo e ligeiramente persuasivo, destinado a empregadores e empregados. Inclua uma chamada para ação suave ao final, sugerindo explorar ferramentas de gestão de tempo.”

Neste prompt, definimos o tipo de conteúdo (artigo de blog), o tamanho (800 palavras), o tópico principal (trabalho remoto e produtividade), a estrutura (introdução, seções com subtítulos), os pontos específicos a serem abordados (flexibilidade, distrações, deslocamento, autonomia, autodisciplina), o público-alvo, o tom e até mesmo um elemento de conclusão (chamada para ação). Esta precisão na engenharia do prompt permite que o ChatGPT gere um rascunho de artigo que já possui uma estrutura lógica e aborda os tópicos essenciais de forma organizada, servindo como uma base sólida para revisão e refinamento.

 

Escrevendo E-mails Profissionais e Comunicações

A elaboração de e-mails profissionais, comunicados internos ou externos é outra área onde o Prompt Engineering demonstra grande valor, garantindo que a mensagem seja clara, concisa e com o tom apropriado. Para e-mails, o contexto é particularmente importante: quem é o destinatário? Qual a relação? Qual o objetivo do e-mail?

Consideremos um cenário onde um gerente precisa enviar um e-mail para sua equipe sobre uma nova política de segurança de dados. Um prompt superficial como “Escreva um e-mail para a equipe sobre segurança de dados” seria insuficiente. Aplicando Prompt Engineering, o prompt seria:

“Escreva um e-mail profissional para a minha equipe de 15 desenvolvedores. O objetivo é comunicar a implementação de uma nova política de segurança de dados que exige o uso de autenticação de dois fatores em todas as ferramentas de desenvolvimento. O e-mail deve ser direto e informativo. Comece explicando brevemente a razão para a nova política (proteger dados confidenciais), apresente a nova exigência (autenticação de dois fatores), forneça instruções claras sobre como configurar (mencione que um guia detalhado será anexado, mas explique os primeiros passos gerais), e finalize com um chamado para ação solicitando que a configuração seja feita até o final da semana. O tom deve ser sério, mas encorajador, ressaltando a importância da colaboração de todos para a segurança.”

Neste prompt, definimos o tipo de comunicação (e-mail profissional), o destinatário (equipe de desenvolvedores), o objetivo (comunicar nova política), a informação central (autenticação de dois fatores), a estrutura (razão, exigência, instruções, chamado para ação), o tom (sério, encorajador) e até mesmo um detalhe de formato (mencionar anexo de guia). O ChatGPT, com esse prompt rico em contexto e instruções, pode gerar um e-mail que não apenas transmite a informação necessária, mas o faz de maneira eficaz, profissional e que motiva a ação por parte da equipe, demonstrando o poder do Prompt Engineering em comunicações corporativas.

 

Criando Conteúdo para Mídias Sociais

Gerar conteúdo envolvente e conciso para mídias sociais (Twitter, Instagram, LinkedIn, etc.) exige que o Prompt Engineering leve em conta as características únicas de cada plataforma, incluindo limites de caracteres, uso de hashtags, e o tipo de interação esperado. O tom e a linguagem devem ser adequados ao público da plataforma e da marca.

Suponha que um gerente de marketing precisa de posts para lançar um novo curso online sobre inteligência artificial. Um prompt básico seria “Posts para redes sociais sobre curso de IA”. O resultado seria genérico. Aplicando Prompt Engineering, o prompt seria:

“Gere 3 opções de posts curtos para o LinkedIn anunciando o lançamento do nosso novo curso online ‘Fundamentos de Inteligência Artificial’. Cada post deve focar em um benefício diferente do curso (por exemplo: aprender habilidades do futuro, aplicar IA no trabalho, entender o impacto da IA). Inclua emojis relevantes e sugira hashtags populares como #InteligenciaArtificial #IA #AprendizadoDeMaquina. Inclua um chamado para ação pedindo para visitar o link na bio para saber mais (embora no LinkedIn o link vá direto no post, a frase funciona). O tom deve ser profissional e inspirador.”

Neste prompt, especificamos a quantidade (3 opções), a plataforma (LinkedIn), o tópico (novo curso de IA), um requisito de conteúdo (focar em benefícios diferentes), elementos específicos da plataforma (emojis, hashtags) e o tom (profissional, inspirador). O ChatGPT pode então gerar posts como:

“Desbloqueie seu potencial na era digital! Nosso novo curso ‘Fundamentos de Inteligência Artificial’ vai te dar as habilidades do futuro que o mercado busca. 🚀 Link na bio para saber mais! #InteligenciaArtificial #FuturoDoTrabalho”, ou “Pronto para aplicar IA no seu dia a dia profissional? Nosso novo curso oferece conhecimento prático para te destacar. ✨ Saiba mais: link na bio. #IA #Produtividade #Inovação”. Este exemplo mostra como o Prompt Engineering permite criar conteúdo altamente otimizado para o formato e público de mídias sociais específicas.

 

Sumarizando e Sintetizando Informações

A capacidade de sumarizar textos longos ou sintetizar informações de várias fontes é uma aplicação valiosa do ChatGPT, aprimorada significativamente pelo Prompt Engineering. A chave aqui é definir o propósito do resumo (para quem é, qual o foco), o formato e o tamanho desejados.

Se um analista de negócios precisa de um resumo de um longo relatório de mercado, um prompt simples “Resuma o relatório” pode resultar em um texto que não destaca os pontos mais relevantes para ele. Um prompt eficaz, usando Prompt Engineering, seria:

“Leia o relatório de mercado a seguir sobre tendências em e-commerce na América Latina. Atuando como um analista sênior, escreva um resumo executivo de no máximo 300 palavras. O resumo deve focar nas principais oportunidades de crescimento, nos desafios regulatórios mais mencionados e nas tecnologias emergentes relevantes para investidores. O tom deve ser conciso e objetivo.”

Neste prompt, definimos a fonte (relatório de mercado), a persona (analista sênior, definindo a perspectiva), o tipo de resumo (resumo executivo), o limite de tamanho (300 palavras), o foco do conteúdo (oportunidades, desafios regulatórios, tecnologias) e o tom (conciso, objetivo). Este Prompt Engineering garante que o resumo gerado seja não apenas curto, mas que também destaque as informações mais relevantes para o público e propósito especificados, tornando-o uma ferramenta útil para tomada de decisão.

 

Como utilizar o Prompt Engineering para refinar e iterar resultados do ChatGPT em tarefas específicas?

O Prompt Engineering não é apenas sobre criar a instrução inicial perfeita, mas também sobre saber como interagir com o modelo após receber uma resposta. A iteração é o ciclo de receber uma saída, avaliá-la e fornecer um novo prompt que refine, corrija ou expanda a resposta anterior. Essa abordagem dinâmica é crucial para tarefas complexas, criativas ou que exigem alta precisão ou personalização.

 

Analisando a Resposta Inicial para Identificar Oportunidades de Melhoria

O primeiro passo na iteração via Prompt Engineering é uma análise crítica da resposta inicial do ChatGPT. Não se limite a aceitar o que foi gerado. Compare a saída com o que você realmente precisava. Identifique as discrepâncias: o tom está incorreto? Faltam informações importantes? Há imprecisões factuais? O formato não é o esperado? A linguagem está muito genérica? Pinpointar exatamente onde a resposta falhou ou pode ser aprimorada é essencial para construir o prompt de refinamento adequado.

Por exemplo, você pediu ao ChatGPT para gerar um esboço de um artigo sobre a história da inteligência artificial e a resposta inicial forneceu uma linha do tempo básica, mas focou demais em marcos técnicos e ignorou o impacto social e filosófico. Sua análise identificaria essa lacuna: a resposta é factual, mas incompleta para o seu propósito, que inclui a dimensão social. Esta análise informa o seu próximo passo de Prompt Engineering.

 

Fornecendo Feedback Direcionado e Específico

Com base na sua análise, o próximo prompt deve fornecer feedback claro e específico sobre o que precisa ser ajustado. Evite comentários vagos como “melhore isso” ou “não gostei”. Diga exatamente o que está errado ou o que você quer adicionar ou modificar. Referenciar partes específicas da resposta anterior no seu prompt de refinamento ajuda o modelo a entender a qual porção do texto seu feedback se aplica.

Continuando o exemplo do artigo sobre IA: após receber o esboço focado apenas em marcos técnicos, seu prompt de refinamento seria:

“O esboço fornecido é bom para a linha do tempo técnica, mas ele não aborda o impacto social e filosófico da inteligência artificial, que é um ponto crucial para este artigo. Por favor, adicione uma seção (use um novo subtítulo) discutindo como a IA afetou a sociedade (emprego, privacidade, ética) e as questões filosóficas que ela levanta sobre consciência e o futuro da humanidade. Mantenha as seções técnicas que você já gerou.”

Este prompt fornece feedback direcionado (adicione seção de impacto social/filosófico) e específico (quais tópicos abordar dentro dessa seção – emprego, privacidade, ética, questões filosóficas), instruindo o modelo a revisar a resposta anterior de uma maneira particular.

 

Adicionando Novas Restrições ou Contexto na Iteração

Muitas vezes, a resposta inicial é insatisfatória porque o prompt original não continha informações suficientes ou restrições adequadas. No processo de iteração do Prompt Engineering, você pode adicionar novo contexto ou novas restrições para guiar o modelo mais precisamente na próxima tentativa. Isso é particularmente útil quando você percebe, após a primeira resposta, que esqueceu de mencionar um detalhe importante ou impor um limite necessário.

Imagine que você pediu ao ChatGPT para escrever um pequeno script para um vídeo de marketing de 30 segundos sobre um software. A primeira versão do script é muito longa, com diálogos que levariam mais de 30 segundos para serem falados. Seu prompt de refinamento seria:

“O script é bom, mas ele está muito longo para um vídeo de 30 segundos. Por favor, reescreva o script para que ele possa ser lido confortavelmente em no máximo 30 segundos. Simplifique as frases, torne os diálogos mais concisos e remova informações não essenciais para cumprir o tempo. Mantenha a mensagem principal sobre os benefícios do software.”

Aqui, a nova restrição (“no máximo 30 segundos”) e a instrução (“simplifique frases”, “remova informações não essenciais”) guiam o modelo a condensar o conteúdo da resposta anterior, demonstrando como adicionar restrições na iteração é vital no Prompt Engineering.

Outro exemplo: você pediu um resumo de um artigo científico e o resumo gerado incluiu muitos detalhes técnicos que são irrelevantes para o seu público-alvo (gestores, não cientistas). Seu prompt de refinamento seria:

“O resumo do artigo científico está tecnicamente correto, mas ele contém muito jargão técnico que meu público (gestores) não entenderá. Por favor, reescreva o resumo utilizando linguagem simples e acessível, focando apenas nas implicações práticas da pesquisa para decisões de negócio. Remova todos os termos científicos complexos ou explique-os de forma leiga.”

Você adicionou novo contexto sobre o público-alvo e impôs a restrição de usar linguagem simples e focar em implicações práticas, refinando a saída para torná-la útil para o seu público específico.

 

Decompondo Tarefas Complexas em Iterações Menores

Às vezes, a razão pela qual um prompt inicial falha em uma tarefa complexa é porque a solicitação era muito ampla. Uma estratégia eficaz de Prompt Engineering na iteração é dividir a tarefa complexa em etapas menores e usar o ChatGPT para completar uma etapa por vez, construindo a resposta final de forma incremental.

Por exemplo, você precisa que o ChatGPT crie um plano de projeto detalhado para lançar um novo produto. Um prompt inicial pedindo o plano completo de uma vez pode resultar em um esboço superficial. Em vez disso, você pode iterar:

  1. Prompt 1: “Liste as fases principais para o lançamento de um novo produto de software.” (Obtém a estrutura geral: Planejamento, Desenvolvimento, Testes, Lançamento, Pós-lançamento).

  2. Prompt 2 (Iteração): “Agora, para a fase de Planejamento listada anteriormente, detalhe as principais atividades e entregas esperadas.” (Obtém detalhes da primeira fase).

  3. Prompt 3 (Iteração): “Excelente. Para a fase de Desenvolvimento, detalhe as atividades chave, as funções da equipe envolvidas e os marcos típicos.” (Obtém detalhes da segunda fase, construindo sobre a anterior).

Este processo iterativo, onde cada prompt subsequente se baseia na resposta anterior para aprofundar uma parte específica da tarefa, permite que o ChatGPT mantenha o foco e gere resultados mais detalhados e precisos para cada componente, que juntos formam a resposta complexa desejada. É uma aplicação avançada do Prompt Engineering para gerenciar a complexidade.

 

Solicitando Revisões e Edições Específicas

Finalmente, uma forma comum de iterar é simplesmente pedir ao ChatGPT para revisar ou editar partes específicas da resposta gerada. Você pode pedir para reescrever um parágrafo, corrigir erros, mudar o tom de uma seção ou expandir um ponto particular.

Por exemplo, você pediu uma descrição de um evento e uma parte ficou muito formal. Seu prompt de refinamento seria:

“O parágrafo que descreve as atividades de networking parece um pouco formal demais. Por favor, reescreva apenas aquele parágrafo com um tom mais convidativo e informal, usando uma linguagem que incentive a interação.”

Ou, se o modelo cometeu um erro factual:

“Na seção sobre requisitos do sistema, você mencionou ‘Windows XP’. Nossa aplicação requer ‘Windows 10 ou superior’. Por favor, corrija essa informação na resposta.”

Esses prompts direcionados permitem ajustes finos, essenciais na fase de refinamento do Prompt Engineering.

 

Quais estratégias de Prompt Engineering melhoram a criatividade e a inovação nas respostas do ChatGPT?

A capacidade do ChatGPT de processar e recombinar informações de seu vasto treinamento pode ser uma fonte surpreendente de criatividade e inovação, se soubermos como direcioná-la. O Prompt Engineering para fins criativos difere daquele focado na precisão; o objetivo aqui é estimular a originalidade, a diversidade de ideias e a conexão entre conceitos aparentemente não relacionados. Trata-se de usar o prompt não apenas para obter uma resposta correta, mas para explorar possibilidades e superar bloqueios criativos.

 

Liberando a Geração de Ideias Diversificadas

Para estimular a criatividade, um dos primeiros passos no Prompt Engineering é solicitar uma variedade de ideias em vez de apenas uma única resposta. Pedir múltiplas opções encoraja o modelo a explorar diferentes caminhos e perspectivas sobre o mesmo tópico. É útil também especificar o tipo de diversidade que você busca nas ideias (por exemplo, ideias de diferentes ângulos, para públicos distintos, com tons variados).

Por exemplo, uma agência de publicidade precisa de conceitos para uma nova campanha de marketing para um café sustentável. Um prompt simples como “Ideias de campanha para café sustentável” resultaria em conceitos genéricos. Para estimular a inovação via Prompt Engineering, o prompt seria:

“Gere 5 conceitos distintos de campanha de marketing para um café que se orgulha de suas práticas sustentáveis e comércio justo. Cada conceito deve ter um foco e tom únicos – por exemplo, um focado no impacto ambiental, outro na comunidade de produtores, um terceiro no sabor diferenciado, um quarto no aspecto de ‘escolha consciente’ do consumidor, e um quinto com uma abordagem mais artística/abstrata sobre a natureza. Para cada conceito, forneça um slogan principal e duas ideias de execução (como um tipo de anúncio ou evento).”

Neste prompt, solicitamos múltiplas ideias (5 conceitos) e, crucialmente, definimos explicitamente a base para a diversidade desejada (focos e tons únicos), além de solicitar elementos específicos para cada ideia (slogan, ideias de execução). Isso força o ChatGPT a não apenas listar ideias genéricas, mas a desenvolver conceitos distintos que abordem o tema central de ângulos variados, aumentando a probabilidade de encontrar uma ideia inovadora ou um ponto de partida criativo interessante.

 

Impondo Restrições Criativas e Combinações Inusitadas

Paradoxalmente, impor restrições ou solicitar a combinação de elementos inusitados pode estimular a criatividade. Limitações forçam a busca por soluções menos óbvias, enquanto combinações inesperadas podem levar a ideias verdadeiramente originais. No Prompt Engineering criativo, as restrições não são sobre precisão, mas sobre moldar o espaço de busca por ideias de forma interessante.

Imagine que um designer de jogos precisa de ideias para um novo tipo de quebra-cabeça. Um prompt aberto demais pode ser esmagador. Usando restrições criativas no Prompt Engineering, o prompt poderia ser:

“Gere 3 ideias para um jogo de quebra-cabeça que combine a mecânica central de ‘ligar pontos’ com um elemento inesperado de ‘gestão de recursos’. Para cada ideia, descreva brevemente o conceito e como as duas mecânicas interagem de forma original.”

Aqui, a restrição e a combinação inusitada (ligar pontos + gestão de recursos) são o motor da criatividade. O ChatGPT é forçado a pensar em como esses dois conceitos díspares podem se unir de maneira lógica e interessante em um jogo.

As ideias geradas poderiam ser algo como: “Um jogo onde você liga constelações de estrelas (ligar pontos), mas cada ‘linha’ traçada consome ‘energia estelar’, que você precisa coletar gerenciando um pequeno planeta (gestão de recursos)”, ou “Um quebra-cabeça isométrico onde ligar circuitos em placas (ligar pontos) ativa máquinas que produzem recursos (gestão de recursos) necessários para desbloquear novas áreas do tabuleiro”. A combinação forçada via Prompt Engineering pode gerar conceitos de jogo inovadores que talvez não surgissem de uma solicitação mais tradicional.

 

Adotando Personas Criativas ou Específicas

Assim como em outros tipos de Prompt Engineering, solicitar que o modelo adote uma persona pode ser uma ferramenta poderosa para influenciar a criatividade e o estilo da resposta. Ao pedir para o ChatGPT atuar como um poeta de uma época específica, um futurista, um inventor maluco, ou um artista conceitual, você o incentiva a gerar conteúdo com o viés, a linguagem e a perspectiva associados a essa persona.

Considere um profissional de marketing que precisa de um nome e slogan memoráveis para um novo aplicativo de meditação. Em vez de um pedido direto, ele pode usar uma persona no Prompt Engineering:

“Atue como um guru de branding focado em bem-estar digital. Gere 10 sugestões de nomes e slogans para um novo aplicativo de meditação que visa ajudar profissionais ocupados a encontrar momentos de calma durante o dia de trabalho. Os nomes e slogans devem transmitir serenidade, eficiência e modernidade. Pense como alguém que entende tanto de marketing quanto de práticas de mindfulness.”

Neste caso, a persona (“guru de branding focado em bem-estar digital”) orienta o ChatGPT a utilizar um vocabulário e um estilo de pensamento alinhados com a indústria de bem-estar e tecnologia, aumentando a probabilidade de gerar nomes e slogans que ressoem com o público-alvo e o nicho de mercado. As sugestões poderiam incluir nomes como “ZenFlow”, “CalmConnect”, “Pause+”, com slogans que reflitam a persona e o objetivo do app. A persona no Prompt Engineering é uma forma de desbloquear estilos e perspectivas criativas que o modelo possui em seu treinamento.

 

Explorando Analogias e Metáforas

Pedir ao ChatGPT para gerar analogias ou metáforas é uma excelente maneira de estimular o pensamento criativo e inovador, especialmente para explicar conceitos complexos ou encontrar novas formas de descrever algo. Essa técnica de Prompt Engineering incentiva o modelo a fazer conexões não literais entre diferentes domínios de conhecimento.

Por exemplo, um educador precisa explicar o funcionamento da internet para alunos do ensino fundamental. Um prompt comum geraria uma explicação técnica. Para uma abordagem mais criativa, usando analogias, o prompt seria:

“Explique como a internet funciona usando uma analogia com algo do dia a dia que crianças do ensino fundamental possam entender, como um sistema de correio, uma biblioteca ou uma grande cidade. O objetivo é tornar o conceito acessível e interessante. Não use termos como ‘servidor’, ‘pacote de dados’ ou ‘protocolo’.”

Aqui, a solicitação explícita por uma analogia e a sugestão de possíveis bases para ela (correio, biblioteca, cidade) guiam o modelo a encontrar um paralelo criativo que simplifique o conceito. A resposta poderia ser algo como: “Pense na internet como uma gigante e mágica biblioteca do mundo. Quando você quer achar uma informação (um livro), você envia um pedido por um ‘carteiro digital’ (seu computador ou celular). Esse carteiro sabe o caminho para a biblioteca e para o ‘prédio’ onde o livro está guardado. Ele traz uma ‘cópia’ do livro de volta para você ler na hora!” Perceba como o uso do Prompt Engineering gerou uma explicação inovadora e didática baseada em uma analogia simples.

Bem legal, né?!

Ficamos por aqui…

Esperamos que tenha gostado deste curso online complementar.

Agora você pode solicitar o certificado de conclusão em seu nome. 

Os certificados complementares são ideais para processos seletivos, promoção interna, entrega de horas extracurriculares obrigatórias da faculdade e para pontuação em concursos públicos.

Eles são reconhecidos e válidos em todo o país. Após emissão do certificado, basta baixá-lo e imprimi-lo ou encaminhar diretamente para a Instituição interessada (empresa, faculdade ou órgão público).

Desejamos a você todo o sucesso do mundo. Até o próximo curso!

De R$159,90

por R$49,90 

⏱️ Valor promocional

Onde usar os certificados:

💼 Processos Seletivos (Vagas de emprego)

🏆 Prova de Títulos (Empresa)

👩‍🏫 Atividades Extras (Faculdade)

📝 Pontuação (Concursos Públicos)

Dúvidas? Fale conosco no WhatsApp

Adquira o certificado de conclusão em seu nome