TL;DR: A API Responses da OpenAI agora suporta o Model Context Protocol (MCP), permitindo que desenvolvedores conectem seus modelos de IA a servidores MCP remotos para acessar ferramentas especializadas como Stripe, Shopify e Twilio. Esta integração expande significativamente as capacidades dos modelos sem exigir desenvolvimento adicional, funcionando com um sistema de aprovações para garantir segurança.
Takeaways:
- O MCP é um protocolo aberto que padroniza como aplicações fornecem ferramentas e contexto aos LLMs, disponível nos modelos gpt-4o, gpt-4.1 e modelos de raciocínio.
- Desenvolvedores pagam apenas pelos tokens usados para importar definições ou fazer chamadas de ferramentas, sem taxas adicionais pela funcionalidade MCP.
- É possível filtrar e controlar quais ferramentas específicas são importadas de um servidor MCP para otimizar custos e latência.
- A integração exige atenção à segurança, pois servidores MCP são serviços de terceiros não verificados pela OpenAI que podem acessar dados sensíveis do contexto do modelo.
Potencializando Suas Aplicações com Servidores MCP Remotos na API Responses da OpenAI
Você já se perguntou como expandir as capacidades dos seus modelos de IA sem precisar desenvolver tudo do zero? A integração de servidores MCP remotos com a API Responses da OpenAI pode ser a solução que você procura. Neste artigo, vamos explorar como essa poderosa combinação pode transformar suas aplicações de IA, oferecendo acesso a ferramentas especializadas e expandindo significativamente o que seus modelos podem fazer.
O que é o Protocolo de Contexto do Modelo (MCP)?
O Model Context Protocol (MCP) é um protocolo aberto que padroniza a forma como as aplicações fornecem ferramentas e contexto para modelos de linguagem de grande escala (LLMs). Este protocolo representa um avanço significativo na forma como integramos diferentes serviços com modelos de IA.
A API Responses da OpenAI incorporou suporte ao MCP, permitindo que desenvolvedores acessem ferramentas hospedadas em servidores MCP remotos. Isso significa que você pode estender as capacidades dos seus modelos de IA sem precisar implementar todas as funcionalidades internamente.
“O MCP padroniza como aplicações fornecem ferramentas e contexto aos LLMs, e a ferramenta MCP na API Responses permite que desenvolvedores deem ao modelo acesso a ferramentas hospedadas em servidores MCP Remotos.”
Alguns servidores MCP populares atualmente incluem:
- Cloudflare
- Hubspot
- Intercom
- PayPal
- Pipedream
- Plaid
- Shopify
- Stripe
- Square
- Twilio
- Zapier
Um exemplo notável é o DeepWiki, um servidor MCP que permite fazer perguntas sobre repositórios GitHub públicos, demonstrando o potencial dessa tecnologia para aplicações específicas.
Como Funciona o MCP na API Responses
A ferramenta MCP funciona exclusivamente na API Responses da OpenAI e está disponível para os modelos mais recentes, incluindo:
- gpt-4o
- gpt-4.1
- Modelos de raciocínio
Uma característica importante do MCP é seu modelo de custo: você paga apenas pelos tokens utilizados ao importar definições de ferramentas ou fazer chamadas de ferramentas, sem taxas adicionais.
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
tools=[
{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp",
"require_approval": "never",
},
],
input="What transport protocols are supported in the 2025-03-26 version of the MCP spec?",
)
print(resp.output_text)
Quando você configura um servidor MCP, a API Responses tenta obter uma lista de ferramentas disponíveis. Se bem-sucedida, um novo item mcp_list_tools
ficará visível no objeto de resposta, indicando que as ferramentas foram importadas com sucesso.
Os servidores MCP que suportam Streamable HTTP ou HTTP/SSE são compatíveis com a API Responses, garantindo flexibilidade na escolha de servidores.
Listagem e Filtragem de Ferramentas MCP
Ao anexar um servidor MCP remoto, a API Responses automaticamente tenta obter uma lista completa das ferramentas disponíveis. Para otimizar a latência, essa lista não é atualizada em chamadas subsequentes, a menos que seja explicitamente solicitado.
O item mcp_list_tools
no objeto de resposta mostra todas as ferramentas importadas, incluindo suas descrições e parâmetros. Isso permite que você entenda quais capacidades estão disponíveis através do servidor MCP.
Para controlar custos e reduzir a latência, você pode usar o parâmetro allowed_tools
para importar apenas um subconjunto específico de ferramentas:
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
tools=[{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp",
"require_approval": "never",
"allowed_tools": ["ask_question"],
}],
input="What transport protocols does the 2025-03-26 version of the MCP spec support?",
)
print(resp.output_text)
Esta abordagem é particularmente útil quando um servidor MCP expõe muitas ferramentas, mas você está interessado apenas em algumas específicas.
Chamada de Ferramentas MCP e Itens de Resposta
Quando o modelo decide chamar uma ferramenta MCP, a API Responses realiza uma requisição ao servidor remoto, obtém a saída e a coloca no contexto do modelo. Isso cria um item mcp_call
que inclui:
- Os argumentos usados na chamada
- A saída retornada pelo servidor
- O
server_label
que identifica o servidor MCP
Todos os modelos compatíveis podem fazer múltiplas chamadas de ferramentas MCP em uma única requisição da API Responses, aumentando a eficiência do processamento.
Se uma chamada de ferramenta falhar, o campo error
será preenchido com informações detalhadas sobre o erro, que podem incluir:
- Erros do protocolo MCP
- Erros de execução da ferramenta
- Erros de conectividade
Essas informações são valiosas para depuração e garantem que você possa identificar e resolver problemas rapidamente.
Aprovações de Chamadas de Ferramentas MCP
Um aspecto crucial da segurança ao usar servidores MCP remotos é o sistema de aprovações. Por padrão, a OpenAI solicita sua aprovação antes que qualquer dado seja compartilhado com um servidor MCP remoto.
Quando uma aprovação é necessária, a API cria um item mcp_approval_request
na saída da resposta, contendo:
- O nome da ferramenta a ser chamada
- Os argumentos que seriam enviados
- Um ID de solicitação de aprovação único
Para aprovar uma chamada, você precisa criar um novo objeto Response e anexar um item mcp_approval_response
a ele, usando o parâmetro previous_response_id
para encadear as respostas:
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
tools=[{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp"
}],
previous_response_id="resp_682d498bdefc81918b4a6aa477bfafd904ad1e533afccbfa",
input=[{
"type": "mcp_approval_response",
"approve": True,
"approval_request_id": "mcpr_682d498e3bd4819196a0ce1664f8e77b04ad1e533afccbfa"
}],
)
print(resp.output_text)
Se você preferir pular aprovações para todas as ferramentas ou para ferramentas específicas, pode configurar o parâmetro require_approval
como “never”:
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
tools=[
{
"type": "mcp",
"server_label": "deepwiki",
"server_url": "https://mcp.deepwiki.com/mcp",
"require_approval": {
"never": {
"tool_names": ["ask_question", "read_wiki_structure"]
}
}
},
],
input="What transport protocols does the 2025-03-26 version of the MCP spec support?",
)
print(resp.output_text)
Este sistema de aprovações garante que você mantenha controle e visibilidade sobre os dados compartilhados com servidores externos.
Autenticação com Servidores MCP
A maioria dos servidores MCP requer alguma forma de autenticação para garantir que apenas usuários autorizados possam acessar seus serviços. A API Responses permite especificar cabeçalhos HTTP que serão incluídos em qualquer requisição ao servidor MCP remoto.
O cabeçalho mais comumente utilizado é o Authorization
, que pode conter chaves de API, tokens OAuth ou outras credenciais:
from openai import OpenAI
client = OpenAI()
resp = client.responses.create(
model="gpt-4.1",
input="Create a payment link for $20",
tools=[
{
"type": "mcp",
"server_label": "stripe",
"server_url": "https://mcp.stripe.com",
"headers": {
"Authorization": "Bearer $STRIPE_API_KEY"
}
}
]
)
print(resp.output_text)
Para proteger informações sensíveis, a API Responses:
- Não armazena os valores fornecidos no objeto de cabeçalhos
- Descarta a parte do caminho da URL do servidor nas respostas
Essas medidas ajudam a prevenir o vazamento de chaves de API e outras informações confidenciais.
Riscos e Segurança ao Usar Servidores MCP
Conectar-se a servidores MCP envolve riscos significativos, já que são serviços de terceiros não verificados pela OpenAI. É essencial adotar práticas de segurança robustas ao utilizar esta funcionalidade.
Recomendações importantes incluem:
- Escolher servidores oficiais: Sempre que possível, utilize servidores MCP hospedados pelos próprios provedores de serviço, como Stripe, Twilio ou Shopify.
- Revisar dados compartilhados: Registre e analise regularmente os dados enviados para servidores MCP, especialmente se contiverem informações sensíveis.
- Estar atento a injeções de prompt: Servidores MCP maliciosos podem incluir instruções ocultas projetadas para fazer os modelos da OpenAI se comportarem de maneira inesperada.
- Considerar políticas de dados: A compatibilidade com Zero Data Retention (ZDR) e Data Residency não se estende aos servidores MCP. Os dados enviados estão sujeitos às políticas de retenção e residência de dados desses servidores.
“É muito importante que os desenvolvedores confiem em qualquer servidor MCP remoto que usem com a API Responses, porque um servidor malicioso pode exfiltrar dados sensíveis de qualquer coisa que entre no contexto do modelo.”
Ao implementar estas práticas de segurança, você pode minimizar os riscos associados ao uso de servidores MCP remotos e aproveitar ao máximo os benefícios que eles oferecem.
Conclusão: O Futuro da Integração com Servidores MCP
A API Responses da OpenAI, combinada com servidores MCP remotos, representa um avanço significativo na forma como podemos estender as capacidades dos modelos de linguagem. Esta integração permite que desenvolvedores acessem uma ampla gama de ferramentas especializadas sem precisar implementá-las do zero.
O protocolo MCP ainda está em seus estágios iniciais, e podemos esperar atualizações e melhorias à medida que evolui. O ecossistema de servidores MCP continuará a crescer, oferecendo ainda mais possibilidades para aplicações de IA.
Para aproveitar ao máximo essa tecnologia, é essencial:
- Entender completamente o protocolo MCP e como ele funciona com a API Responses
- Implementar mecanismos robustos de aprovação e autenticação
- Adotar práticas de segurança rigorosas ao se conectar a servidores de terceiros
- Manter-se atualizado sobre as últimas evoluções no ecossistema MCP
Ao seguir estas diretrizes, você estará bem posicionado para criar aplicações de IA mais poderosas e versáteis, aproveitando o melhor que os servidores MCP remotos têm a oferecer.
Ação recomendada: Comece experimentando com servidores MCP oficiais como o DeepWiki para entender o fluxo de trabalho e as possibilidades antes de integrar servidores mais complexos em suas aplicações de produção.
Fonte: OpenAI. “Remote MCP: Allow models to use remote MCP servers to perform tasks”. Disponível em: https://platform.openai.com/docs/api-reference/responses/remote-mcp.