夜,是不可能不熬的。
刚刚,扣子宣布开源,主要开源了两个核心项目:
1.Coze Studio(扣子开发平台)
2.Coze Loop(扣子罗盘)
GitHub地址:
https://github/coze-dev/coze-studio
https://github/coze-dev/cozeloop
Coze Studio是扣子最核心的产品,你可以通过拖拽节点,自由编排任意具有workflow的AI Agent。通过Coze Studio提供的可视化设计与编排工具,开发者可以零代码或低代码,快速打造和调试智能体、应用和工作流。
Coze Loop是一个面向开发者,专注于AI Agent开发与运维的管理平台。可以帮助开发者更高效地开发和运维AI Agen,比如提示词工程、Agent评测、上线后监控与调优等,提升Agent的运行效果和稳定性。
本次开源,采用极其宽松的Apache2.0协议开源。意味着,所有人都可以免费下载和商用。
安装环境,门槛超低,双核CPU+4G内存即可运行。基本上就是,是个电脑都能使用。
在Agent编排工具领域,Coze一直是独一档的存在。本次开源,可以看到字节Seed团队拥抱开源的决心。
任谁开源,都值得吼两嗓子,感谢扣子,感谢字节。以下,是开源版Coze的安装指南。
1.Coze Studio部署指南
环境要求:
-
在安装 Coze Studio 之前,请确保您的机器满足以下最低系统要求: 2 Core、4 GB
-
提前安装 Docker、Docker Compose,并启动 Docker 服务。
部署步骤:
1)获取源码
# 克隆代码
git clone https://github/coze-dev/coze-studio.git
2)配置模型
-
从模板目录复制doubao-seed-1.6模型的模版文件,并粘贴到配置文件目录。
cd coze-studio
# 复制模型配置模版
cp backend/conf/model/template/model_template_ark_doubao-seed-1.6.yaml backend/conf/model/ark_doubao-seed-1.6.yaml
-
在配置文件目录下,修改模版文件。
-
进入目录 backend/conf/model。打开复制后的文件ark_doubao-seed-1.6.yaml。
-
设置 id、meta.conn_config.api_key、meta.conn_config.model 字段,并保存文件。
-
id:Coze Studio 中的模型 ID,由开发者自行定义,必须是非 0 的整数,且全局唯一。模型上线后请勿修改模型 id 。
-
meta.conn_config.api_key:模型服务的 API Key,在本示例中为火山方舟的 API Key,获取方式可参考获取火山方舟 API Key。
-
meta.conn_config.model:模型服务的 model ID,在本示例中为火山方舟 doubao-seed-1.6 模型接入点的 Endpoint ID,获取方式可参考获取 Endpoint ID。
3)部署并启动服务
首次部署并启动 Coze Studio 需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。部署过程中,你会看到以下日志信息。如果看到提示 "Container coze-server Started",表示 Coze Studio 服务已成功启动。
# 启动服务
cd docker
cp .env.example .env
docker compose --profile '*' up -d
4)登录访问
启动服务后,通过浏览器访问 http://localhost:8888/ 即可打开 Coze Studio。其中 8888 为后端监听端口。 至此,你已成功部署 Coze Studio,可以根据页面提示注册账号、体验 Coze Studio 的各项功能与服务。
2.Coze Loop部署指南
1)准备工作
在参考本文安装 CozeLoop 开源版之前,确保您的软硬件环境满足以下要求:
2)安装 CozeLoop
步骤一:获取源码
执行以下命令,获取 CozeLoop 最新版本的源码。
# 克隆代码
git
clone
https://github/coze-dev/cozeloop.git
# 进入cozeloop目录下
cd cozeloop
步骤二:配置模型
正式安装 CozeLoop 开源版之前,你需要准备可选的模型,否则访问 CozeLoop 开源版时将无法选择模型来启动 Prompt 调试或评测。 此处以 OpenAI 和火山方舟模型为例,演示配置模型文件的操作步骤,你可以快速配置模型以便安装和测试 CozeLoop 开源版。对于 Llama 等其他模型,你可以参考模型配置文档填写配置文件。
-
进入目录 conf/default/app/runtime/。
-
编辑文件 model_config.yaml,修改 api_key 和 model 字段。 以下内容表示为 CozeLoop 开源版配置火山方舟的豆包模型、OpenAI 模型。 使用以下内容覆盖原文件,然后修改其中的 api_key 和 model,将其替换为你的 OpenAI 和火山方舟模型的配置参数。
models:
- id: 1
name: "doubao"
frame: "eino"
protocol: "ark"
protocol_config:
api_key: "***" # 火山方舟 API Key,获取方式可参考 https://www.volcengine/docs/82379/1541594
model: "***" # 方舟模型 ID,可参考 https://www.volcengine/docs/82379/1330310
param_config:
param_schemas:
- name: "temperature"
label: "生成随机性"
desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
type: "float"
min: "0"
max: "1.0"
default_val: "0.7"
- name: "max_tokens"
label: "最大回复长度"
desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
type: "int"
min: "1"
max: "4096"
default_val: "2048"
- name: "top_p"
label: "核采样概率"
desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
type: "float" #
min: "0.001"
max: "1.0"
default_val: "0.7"
- id: 2
name: "openapi"
frame: "eino"
protocol: "openai"
protocol_config:
api_key: "***" # OpenAI API Key
model: "***" # OpenAI 模型 ID
param_config:
param_schemas:
- name: "temperature"
label: "生成随机性"
desc: "调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性。建议不要与 “Top p” 同时调整。"
type: "float"
min: "0"
max: "1.0"
default_val: "0.7"
- name: "max_tokens"
label: "最大回复长度"
desc: "控制模型输出的 Tokens 长度上限。通常 100 Tokens 约等于 150 个中文汉字。"
type: "int"
min: "1"
max: "4096"
default_val: "2048"
- name: "top_p"
label: "核采样概率"
desc: "生成时选取累计概率达 top_p 的最小 token 集合,集合外 token 被排除,平衡多样性与合理性。"
type: "float" #
min: "0.001"
max: "1.0"
default_val: "0.7"
-
保存文件。
步骤三:启动服务
执行以下命令,使用 Docker Compose 快速部署 CozeLoop 开源版。
# 启动服务,默认为开发模式
docker compose up --build
首次启动需要拉取镜像、构建本地镜像,可能耗时较久,请耐心等待。部署过程中,你会看到以下日志信息。如果回显信息中”提示后端构建完成“,表示 CozeLoop 已成功启动。
-
部署 Coze Loop 开源版时,启动模式默认为开发模式。关于启动模式的详细说明,可参考启动模式。
-
如果启动过程中遇到 Docker 或 Docker Compose 相关问题,通常原因是环境配置、系统权限或网络问题,建议根据 Docker 报错查找相关解决方案。
步骤四:访问 CozeLoop 开源版
启动服务后,通过浏览器访问 http://localhost:8082 即可打开 CozeLoop 开源版。其中8082 为前端监听端口,8888 为后端监听端口。 至此,你已成功部署 CozeLoop 开源版,可以体验 CozeLoop 的各项功能与服务。
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
发布评论