冒泡网:AI智能体|扣子(Coze)搭建【每日资讯推送机器人】智能体

2025年6月1日11:08:21冒泡网:AI智能体|扣子(Coze)搭建【每日资讯推送机器人】智能体已关闭评论 77 次浏览

今天的内容和信息有关,我说一下自己的看法,仅供参考,不喜欢可跳过。

只有不聪明的人,才相信赚钱靠的是信息差,那些说靠信息差就能赚钱的,他们要么没赚过钱,要么想骗你钱。

我经常在网上刷到一些博主说:赚钱靠的是信息差,什么再高的智商,在信息差面前不值一提,甚至连我身边的人也开始这么说。

每次听到这句话,我就觉得有问题,比如做 AI 企培,给企业培训一次几千上万,做的好一点,个人年入百万,我估计是没啥问题的。

那么我现在把这个信息告诉你,把课程的学习资料给你,你能做到吗?

显示是不能的,因为你没有客户资源,你不知道培训谁,所以这个事情的本质还是资源,人脉的问题,信息差在其中占比几乎可以说没有。

再比如房地产行业过去大概是靠关系拿的地,然后去贷款,担保,预售等等,这个信息你知道了,但是你怎么没去做房地产。

换句话说比如许家印这种,都干到房地产行业的头部了,他知道的信息我估计比所有干房地产的都知道的多,但是他为啥还是垮台了呢?

你知道 Cusrsor 估值近百亿美元了,你怎么不去做一个呢?是因为不知道这个信息吗?

其实赚钱靠的是资源,资本,人脉,以及认知,信息差在里面占比非常非常的少,之所以它被媒体炒的这么高,本质上是迎合了人性急于求成的特点。

因为大多数普通人,认知不够,没有资金,没有人脉,更没有资源,如果你和他说赚钱靠的是这些,那么大概率他会放弃。

但如果你告诉他,不需要能力,不需要资金,不需要人脉,只需要一条信息,就能帮他赚到钱,那么大概率他内心会因为基于求成,急功近利而为这个信息买单。

这也是为什么像我开头说的那样,说信息差能赚钱的要么想赚你的钱。

其实太阳底下没什么新鲜的事情,纵观中华几千年历史,出现的鬼才数不胜数,什么样的商业模式我估计在历史中都出现过。

只要你花时间去研究,你都能知道其商业模式,但不代表你知道了,你就能做到。

主包吹完牛了,我们来看看今天的工作流的效果如何。

需求分析

需求一:有些行业需要迫切的知道每日资讯,因为行业的特性以及实时信息对决策的关键影响很大。

比如金融行业,投资行业,市场发生波动(汇率,估计等等)直接会影响交易的决策。

但每天单单打开网站就需要不少的时间,更别说还要阅读其内容并将其总结。

如果有一个机器人,能获取这个网站的资料,并且总结重点,哪这对这类从业者来说是十分的友好的。

需求二:信息差,落后会导致人焦虑。

在现在这个 AI 的浪潮下,很多人都想跟上时代,至少我去线下的时候都能看到很多传统企业的 boss 都纷纷来学习。

有些人觉得落后等于淘汰,有一些知识焦虑,他们会感觉大家都知道都会,自己不会,感觉是不是要被淘汰了。

所以他们也迫切需要通过最新的资讯来了解目前的情况,一方面缓解知识焦虑,一方面跟上时代,同时适应时代。

智能体流程分析

整体事件的流程如下。

整体的 Coze 工作流流程如下。

保姆级工作流教程

第一步,开始节点

开始节点无需输入内容,毕竟是采集每日最新咨询,无主题之分。

第二步,热搜榜聚合

这个节点很强大,它包含微博热搜、今日头条、知乎日报、虎扑步行街、36氪、哔哩哔哩热榜,知乎、IT资讯、虎嗅网、人人都是产品经理热榜百度、抖音热点豆瓣小组精选等聚合热榜。

我们通过这个节点获取各大平台。

第三步,时间获取(代码)

这个节点的作用是,我们可以通过这个节点获取当日的时间,显示在海报上面,不然的话,有些人可能不清楚是啥时候的资讯了。

这里我们设置一个输出参数 datetime,这个代码挺简单的,大家 AI 搞一下应该没问题,不行再问我吧。

第四步,链接获取(代码)

这个节点的作用的话就是提取热搜榜聚合中所有平台的链接出来,为后面提取内容做准备。

我们设置一个输入参数 input ,数据来源为热搜榜聚合的 data ,输出参数 links 为平台的链接,采用数组的格式。

async def main(args:Args)-> Output:
    # 从输入参数中获取数据
    params = args.params
    
    # 获取输入列表
    input_list = params.get('input', [])
    
    # 获取前8条新闻的链接
    links = [item['url'] for item in input_list[:8] if 'url' in item]
    
    # 构建并返回输出JSON
    return {"links": links}

第五步,循环

循环节点我们设置使用数组循环,因为我们上一个节点传来的数据就是数组的形式。

我们设置一个循环数组的变量名 input 数据来源为链接获取的 links ,设置输出参数 output 为内容提炼结果,数据来源为内容提炼节点的 content ,采用数组类型。

第五步,链接获取(循环体)

这个节点的作用就是循环的提取各大平台链接中的内容,输入参数 url 数据来源为循环的 input 。

第五步,内容提炼(循环体)

这个节点的作用就是把那些资讯提炼出精华出来。

我们设置输入参数 input ,数据来源为链接获取的 content ,输出参数为 title ,content ,代表的意思是标题和内容,采用 deepseek v3 模型。

系统提示词:
# 角色
你是一位专业新闻写作专家,擅长精准总结新闻内容,将其压缩至70字以内,确保信息完整目精炼。
## 技能
1.接收输入的网页内容{{input}},提取关键信息(content)。
2.根据新闻内容提炼一个小标题(title),15字以内。
3.用简洁的语言将新闻概括,总结字数不超过70字。
4.总结的内容中不要显示日期,要显示有价值信息:
5.输出结构:
"title":提炼出来的新闻标题
"content":总结的新闻内容
## 限制
-输出内容必须在 70字以内,标题在15字以内
不要显示新闻内超级链接地址
不要出现政治敏感话题
用户提示词:
{{input}}

第六步,内容整理

这个节点的作用就是把那些提炼出来的内容进行整理成一个文本,这样容易放进画板里面。

我们设置输入参数 input 数据来源为循环输出的 output ,设置输出参数 output 。

第七步,画板节点

画板节点的作用就是把那些内容整理成一个海报。

具体参数与变量设置,可以看下面这张图片,画板尺寸为 9:16 。

第八步,结束

结束节点我们需要输出刚才画板生成的海报内容。

日报机器人智能体搭建

第一步,将工作流发布

我们需要把工作流跑通,然后把他发布出去,智能体才能调用。

第二步,搭建智能体

我们需要创建一个智能体,名字那些,你们看着取就好。

创建完成后,我们需要添加工作流,添加触发器,设置回复逻辑,设置完成后,我们发布出去。

第三步,平台发布

选择合适的平台发布就行。

总结

整体的工作流有 8 步,搭建智能体有 3 步,从整体来看,并不是很难,大家可以尝试的做做看。

大家也可以根据这个智能体/工作流去迁移一些相对应的应用场景,用这个作为大致的模板,去发散的想。

如果个人有获取某些信息的需求的话,哪搭建这样的智能体,就能减少很多的时间了。

祝你通过这种方式,早日消除自己所认为的信息差啦!

本期的内容就到这里了,感谢你的耐心。

如果看完喜欢,请帮忙转发分享一下,你的点赞转发,就是我更新下去的动力!

  • 冒泡QQ群
  • weinxin
  • 我的微信
  • weinxin