兼容OpenAI DALL-E 模型 API调用的 Model Context Protocol (MCP) 服务器实现。
本项目基于https://github.com/nicekate/flux-dev-mcp改编,感谢原作者的贡献。 使用了完全兼容OpenAI接口的 转发API 服务,包含openai以及Anthropic等多家大语言模型API,MidJourney和Flux等文生图绘画模型API, 最新模型claude-3-7-sonnet已上线!!
使用我的邀请链接 https://xiaohumini.site/register?aff=Zbtb 注册,可以获得0.4刀免费调用!
# Windows/MacOS 通用命令
npm install
# Windows/MacOS 通用命令
npm run build
启动带有自动重新构建的开发模式:
# Windows/MacOS 通用命令
npm run watch
在 Cline/ROO CODE 插件中,需要配置 MCP 服务器的启动命令。请按照以下步骤进行配置:
配置内容示例:
Windows:
{
"mcpServers": {
"genimg-mcp": {
"command": "node",
"arg": ["C:\\path\\to\\genimg-mcp\\dist\\index.js"],
"env": {
"OPENAI_API_KEY": "sk-xxxxx",
"OPENAI_MODEL_ID": "dall-e-3" # 可选
}
}
}
}
MacOS:
{
"mcpServers": {
"genimg-mcp": {
"command": "/path/to/genimg-mcp/dist/index.js",
"env": {
"OPENAI_API_KEY": "sk-xxxxx",
"OPENAI_MODEL_ID": "dall-e-3" # 可选
}
}
}
}
注意:
\\
或单正斜杠 /
/
由于 MCP 服务器通过标准输入输出(stdio)通信,调试可能会比较困难。我们推荐使用 MCP Inspector 工具:
# Windows/MacOS 通用命令
npm run inspector
Inspector 将提供一个浏览器访问地址,用于访问调试工具。
如需支持,请联系1813345945@qq.com。
本项目采用 MIT 许可证,详见 LICENSE 文件。
Seamless access to top MCP servers powering the future of AI integration.