一款使用 AI 将屏幕截图、模型和 Figma 设计转换为干净、实用的代码的简单工具。现在支持 Claude Sonnet 3.5 和 GPT-4o!
支持的堆栈:
- HTML + Tailwind
- HTML + CSS
- React + Tailwind
- Vue + Tailwind
- 引导
- Ionic + Tailwind
- SVG
支持的 AI 模型:
- Claude Sonnet 3.5-最佳模型!
- GPT-4o——也推荐!
- DALL-E 3 或 Flux Schnell(使用 Replicate)用于图像生成
该应用程序有一个 React/Vite 前端和一个 FastAPI 后端。
所需钥匙:
- 可访问 GPT-4或 Anthropic 密钥的 OpenAI API 密钥(可选)
- 建议同时使用这两种方法,以便您可以比较 Claude 和 GPT4o 的结果
运行后端(我使用 Poetry 进行包管理 -pip install poetry如果您没有它):
cd backend echo "OPENAI_API_KEY=sk-your-key" > .env echo "ANTHROPIC_API_KEY=your-key" > .env poetry install poetry shell poetry run uvicorn main:app --reload --port 7001
您还可以使用前端的设置对话框来设置密钥(加载前端后,单击齿轮图标)。
运行前端:
cd frontend yarn yarn dev
打开http://localhost:5173即可使用该应用程序。
如果你希望在其他端口上运行后端,请更新 VITE_WS_BACKEND_URLfrontend/.env.local
出于调试目的,如果你不想浪费 GPT4-Vision 积分,你可以在模拟模式下运行后端(流式传输预先录制的响应):
MOCK=true poetry run uvicorn main:app --reload --port 7001
Docker
如果您的系统上安装了 Docker,请在根目录中运行:
echo "OPENAI_API_KEY=sk-your-key" > .env docker-compose up -d --build
该应用程序将在http://localhost:5173上启动并运行。请注意,您无法使用此设置开发应用程序,因为文件更改不会触发重建。
开源项目:【GitHub】
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...