Como usar arquivos de prompt no Visual Studio em 10 minutos ou menos
Os arquivos de instruções são um recurso relativamente novo que permite aos desenvolvedores armazenar instruções personalizadas para ferramentas de IA, como o GitHub Copilot, em um único local reutilizável. Em seu vídeo " Como usar arquivos de prompts no Visual Studio em 10 minutos ou menos ", Tim Corey demonstra todo o processo de criação, salvamento e uso de um arquivo de prompts do Visual Studio para aprimorar as sugestões de código do Copilot e automatizar tarefas comuns de desenvolvimento.
Este artigo segue a demonstração de Tim. Ao longo deste guia, você verá como configurar arquivos de prompts reutilizáveis, onde armazená-los no repositório do seu projeto e como habilitá-los na visualização de chat do Copilot para responder a tarefas específicas ou solicitações de chat em linha.
Introdução aos arquivos de prompts
No início do vídeo (0:00), Tim afirma que os arquivos de prompts podem ser "formas realmente poderosas de melhorar o desempenho dos modelos de IA que você utiliza". Eles funcionam como uma espécie de prompt de bate-papo ou caixa de prompts integrada para o Copilot e outras ferramentas de IA. Em vez de colar instruções sempre que precisar, você mantém um arquivo Markdown dentro do seu projeto para que o sistema possa carregá-lo automaticamente sempre que você trabalhar nele.
Configurando um projeto de exemplo
Aos 0:24, Tim abre o Visual Studio com um novo aplicativo de console .NET 9. Sem nenhuma configuração extra — apenas "Arquivo → Novo Projeto". Essa criação em branco demonstra como você pode adicionar suporte a prompts a qualquer repositório de código-fonte.
O plano de Tim: criar um arquivo de prompts na pasta raiz do projeto e, em seguida, demonstrar como habilitá-lo no chat do GitHub Copilot para obter sugestões e explicações de código mais detalhadas.
Obtendo o conteúdo do prompt
Aos 0:38, Tim escolhe seu exemplo de comando: "Modo Fera", um conjunto de instruções personalizadas contribuídas pela comunidade e criadas por Burke Holland. Tim copia o texto bruto para poder colá-lo em seu projeto mais tarde (0:59).
Ele também explica que você precisará ter acesso a todas as pastas subjacentes. Tim usa a extensão File Explorer para Visual Studio (1:01). Se você não o tiver, vá para "Extensões → Gerenciar extensões" e procure por "Explorador de Arquivos" (1:05). Essa ferramenta expõe todos os arquivos e pastas — não apenas os já associados à sua solução — facilitando a criação e o gerenciamento de prompts reutilizáveis ou de mais de um arquivo simultaneamente.

Criando a estrutura de pastas de prompts
Às 1:40, Tim mostra a pasta raiz do seu aplicativo de exemplo de console no Explorador de Arquivos. Você pode ver a pasta do projeto, bin, obj e assim por diante (1:42).
Ele clica com o botão direito do mouse no menu de contexto (1:49) e escolhe "Nova Pasta", digitando:
.github\prompts
.github\prompts
Este único comando cria uma pasta oculta GitHub e uma subpasta prompts (1:58). Tim enfatiza que "prompts" é plural (2:04). O Visual Studio mostra imediatamente o ícone do GitHub na pasta (2:10), confirmando que foi reconhecido corretamente. É aqui que você armazena e referencia todos os seus arquivos de prompts para esse projeto.
Adicionando o arquivo de prompt
Dentro da pasta de prompts, Tim cria um novo arquivo markdown chamado:
BeastMode31.prompt.md
BeastMode31.prompt.md
(2:17). Este é um arquivo de instruções reutilizável contendo os comandos para o Copilot. Uma vez criado, Tim o abre e cola o texto bruto do gist (2:33). Ele diz que vai incluir o resumo na descrição do vídeo (2:36).

Tim então faz uma pausa para alertar os espectadores (2:38–3:09): sempre leiam cada linha de qualquer instrução que vocês baixarem. Oculto no meio do processo, um prompt malicioso poderia solicitar a extração de chaves, o envio de dados para outro local ou a modificação do código de maneiras inesperadas. O próprio Tim lê "cada palavra" (2:46). Esta é uma dica de segurança vital ao trabalhar com exemplos contribuídos pela comunidade.
Por que essa estrutura é importante
Às 3:13, Tim observa que, como o arquivo fica em GitHub/prompts, se você adicionar o projeto ao controle de versão, o arquivo de prompts irá junto (3:26). Todos os desenvolvedores da equipe recebem as mesmas instruções personalizadas e o mesmo contexto de IA, tornando seu fluxo de trabalho previsível. Você pode até mesmo definir instruções reutilizáveis para tarefas comuns e mantê-las com controle de versão, assim como seu código-fonte.
Usando o recurso de prompt no chat do Copilot
Às 3h31, Tim abre o GitHub Copilot Chat no Visual Studio. Ele amplia a visualização do chat (3:34), clica no botão "+" (3:39) e vê uma lista de arquivos de prompts disponíveis. Como o arquivo está no diretório de prompts, o Copilot o detecta automaticamente (3:43). Tim clica em beastmode31.prompt.md e o ativa (3:50).

Com o arquivo de prompt ativado, Tim escolhe qual LLM executar. Ele está usando o Claude 4 (3:56), mas você pode selecionar outro modo ou mecanismo do Copilot. Em seguida, ele digita uma solicitação de teste: "Por favor, adicione injeção de dependência e configuração a este projeto" (4:09). Essa é uma tarefa típica de desenvolvimento em que um bom prompt pode ajudar o Copilot a gerar o código correto e explicar cada etapa.
Observando o copiloto trabalhar com o comando.
Tim mostra como o Copilot começa a usar o arquivo de prompt (4:15). Ele carrega primeiro as instruções do Modo Besta e, em seguida, produz uma lista de verificação de etapas (4:34). O Copilot até pede permissão para instalar pacotes (4:37).
Tim menciona que Burke Holland recomenda permitir a aprovação automática (4:46), mas o próprio Tim prefere clicar em "Permitir" manualmente todas as vezes (5:01). Ele nunca clica em "Permitir sempre" ou "Permitir nesta sessão" (4:53). Isso lhe permite manter o controle sobre o que a IA realmente executa.

À medida que o Copilot executa as etapas, ele adiciona os pacotes necessários, modifica o código e cria arquivos de configuração como appsettings (6:17). Tim demonstra como negar uma ordem sobre a qual não tem certeza (5:44–5:49). Você pode pesquisar um comando primeiro e depois decidir (5:52–5:58). Isso impede que a IA "alucine" e faça coisas que você não pretende (6:06).
Esta parte do vídeo mostra exatamente como executar prompts, selecionar prompts e usá-los para tarefas específicas diretamente no seu editor — sem precisar copiar e colar texto em cada nova sessão.
A principal conclusão: Arquivos de prompts reutilizáveis
Ao final (6:23), Tim destaca o "ponto crucial": usar um arquivo de instruções garante que o LLM funcione da maneira que você deseja — pesquisar primeiro, seguir suas instruções e manter a consistência em todos os projetos. É como atribuir ao Copilot um comando de barra permanente ou uma mensagem de sistema personalizada para o seu fluxo de trabalho.
Tim conclui às 6:34: "É assim que se usa um arquivo de prompts no Visual Studio." Você pode criar mais de um arquivo (por exemplo, exemplos da comunidade separados ou tarefas comuns), armazená-los em GitHub/prompts e deixar o Copilot descobri-los automaticamente.
Conclusão
O breve vídeo de Tim Corey demonstra um uso completo e prático de arquivos de prompt do Visual Studio:
-
Crie uma pasta GitHub/prompts na sua pasta raiz.
-
Adicione um arquivo Markdown .prompt.md com as instruções personalizadas escolhidas.
-
Leia e verifique antes de usar.
-
Habilite-o na visualização de chat do GitHub Copilot e teste com solicitações de chat em linha ou em caixa de diálogo.
- Aprovar ou rejeitar cada ação manualmente para evitar alterações não intencionais.
Seguindo a abordagem de Tim, os desenvolvedores podem armazenar, modificar e reutilizar prompts para tarefas comuns de desenvolvimento e solicitações específicas de geração de código diretamente no Visual Studio (ou até mesmo no VS Code, que oferece suporte a uma estrutura de pastas semelhante). Isso permite que ferramentas de IA como o Copilot forneçam respostas melhores, expliquem o código e se integrem perfeitamente ao seu fluxo de trabalho existente, mantendo você no controle.
