💥 Gate广场活动: #FST创作大赛# 💥
在 Gate广场 发布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相关原创内容,即有机会瓜分 3,000 FST 奖励!
📅 活动时间:2025年8月27日 – 9月2日
📌 参与方式:
发布原创内容,主题需与 FST 或 CandyDrop 活动相关
内容不少于 80 字
帖子添加话题: #FST创作大赛#
附上 CandyDrop 参与截图
🏆 奖励设置:
一等奖(1名):1,000 FST
二等奖(3名):500 FST/人
三等奖(5名):200 FST/人
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
活动详情链接: https://www.gate.com/announcements/article/46757
将LLM带入互联网计算机
什么是点火里程碑?
Ignition 里程碑是 ICP 路线图中去中心化 AI 轨道的一部分,专注于将罐子连接到链外 LLM。通过此更新,开发者可以在他们的 dapp 中使用 AI,而无需复杂的设置,这要归功于 AI 工作者。
Ignition中的新内容
LLM 库以便捷集成
为了简化将您的气罐连接到LM的过程,我们在互联网计算机上添加了三种语言的库:Motoko、Rust和TypeScript。
这些库使得在你的去中心化应用中快速使用LLM变得简单。例如,这里是一个如何使用几行Motoko代码与Llama 3.1进行交互的示例:
导入 LLM “mo:llm”;
等待 LLM.chat019283746574839201#Llama3_1_8B(.withMessages019283746574839201[ #system_ { content = "你是一个有帮助的助手。";
},
#user_ { content = "太阳有多大?";
},
]).send();
上述示例可以在 ICP Ninja 上找到并进行修改。它展示了一个 canister 如何向一个 LLM 发送查询并获得响应,设置 minimal。
这是另一个示例,展示如何使用工具调用LM。
导入 LLM “mo:llm”;
演员 { public func example() { let response = await LLM.chat(#Llama3_1_8B) .withMessages([ #system_ { content = "你是一个有帮助的助手。"
},
#user { content = "苏黎世的天气怎么样?"
},
])
.withTools([LLM.tool)“get_weather”( .withDescription("获取某个地点的当前天气")
.withParameter( LLM.parameter019283746574839201“location”, #String) .withDescription(“获取天气的位置”( .isRequired)( )
.build() ])
.send(); };
}
您可以在这里找到使用工具的实时演示,以及这里的演示源代码。
) AI 工作者
为了将罐子与链外LM连接,我们构建了一个最低可行产品的AI工作者,这是一个简单的系统,允许罐子从链外LM检索数据。AI工作者处理通信,因此罐子可以实时发送请求并从LM获取响应。
目前,AI 工作者支持 Llama 3.1 8B、Llama 4 Scout 和 Qwen 3 32B。这些选项为开发者提供了选择合适 LLM 以满足其项目需求的灵活性。
这里有一个图表,说明了AI工作者如何在后台被用于将提示传递给链外的LLM提供者。
现实世界的应用案例
开发者已经在使用LLM库来构建创意dapps,例如:
这些例子展示了人工智能工作者如何支持互联网计算机上的一系列应用。
为什么这很重要以及如何开始
Ignition 里程碑使开发者能够轻松地将 LLM 集成到他们的 Internet Computer 项目中,从而启用新的 dapp 类型,如聊天机器人、分析工具和 AI 驱动的 DeFi 应用。通过将 LLM 与 Internet Computer 的功能如 Chain Fusion、HTTPS 外部调用和链上随机性结合,开发者可以构建创造性和强大的解决方案。
准备好尝试了吗?在 ICP Ninja 上探索 LLM 聊天机器人项目,查看实时演示,或深入我们的代码和示例库。
将LLM引入互联网计算机的文章最初发布在Medium上的《互联网计算机评论》中,人们通过突出和回应这个故事继续进行讨论。