蚂蚁集团领投,RockFlow获数千万美元融资,开启新篇章
新加坡原生AI金融科技公司RockFlow近日宣布,已完成新一轮数千万元美元融资。本轮融资由蚂蚁集团领投,Monolith砺思资本,以及现有股东蓝驰创投(Lanchi Ventures)、Forwest Capital和Evergreen跟投。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
此次融资正值RockFlow举办的“RockAlpha AI大模型美股交易大赛”引发业界热议之际。该赛事不仅清晰地展示了“AI大模型进行真实美股交易”的巨大潜力,也验证了RockFlow旗下全球首款金融交易AI Agent——Bobby,在真实投资环境中的强大应用能力。
Bobby AI的核心定位是成为投资者7x24小时的“AI投资伙伴”。与传统工具不同,Bobby能够通过自然语言深度理解用户的个性化投资意图,并自主完成数据分析、策略建模、回测验证到实时交易的全流程任务。经过市场验证与快速迭代,Bobby正朝着具备自主学习与智能决策能力的方向进化,预示着AI在金融领域的应用正从“辅助工具”向“决策核心”加速转变。
值得注意的是,RockFlow所属集团近期已成功获得香港证监会(SFC)颁发的第1类(证券交易)、第4类(就证券提供意见)和第9类(资产管理)牌照,为其在香港这一国际金融中心开展受监管的金融业务奠定了坚实基础。据透露,RockFlow已依托其全球合规架构,在全球多个主要市场同步申请券商、信托、稳定币、支付及数字银行等多项金融牌照。
展望未来,RockFlow的愿景是构建一个覆盖全球多资产类别的“All-in-One”AI原生金融科技平台。公司计划在未来数月内,陆续接入数字资产、真实世界资产(RWA)、事件合约及非上市公司股权等更多资产类别,持续探索AI Agent在全品类资产投资中的应用边界。
本轮融资后,RockFlow将进一步推动大模型技术在金融服务业的深度创新与落地。公司创始人Vakee表示:“AI Agent技术正从根本上重塑金融服务的体验与入口。我们的核心使命,是利用AI将原本复杂、专业的金融服务,变得极度易用和个性化,让每一位用户都能享受到轻松、舒适的金融服务体验。我们始终将用户资产安全与数据隐私放在首位,严格遵循各国合规标准,持续加大研发投入,确保AI产品在功能、安全与合规上始终保持行业领先。”
本轮领投方代表表示:“我们高度认可RockFlow团队在AI与金融领域的深度融合能力及高效执行力。传统金融服务长期存在较高的专业门槛,而RockFlow通过AI Agent技术有效打破了这一信息壁垒,极大地降低了普通用户获取专业服务的难度,真正诠释了科技普惠的价值。我们看到了其中清晰的潜力,期待RockFlow在AI原生金融应用上继续做出扎实且开创性的探索。”
作为陪伴RockFlow四年的天使轮投资人,蓝驰创投表示:“蓝驰尤为关注在大赛道叠加专业深度的AI应用方向,我们始终坚信RockFlow打造‘All-in-One’AI原生平台的愿景。见证Bobby AI让专业投资人人可及,蓝驰创投持续看好团队在‘AI Agent+金融领域’的深耕,相信其将在全球市场开拓出更宽广的路径。”
关于RockFlow
RockFlow(https://rockflow.ai/)是一家总部位于新加坡的人工智能金融科技公司,致力于通过AI技术创新,为全球投资者带来简单、有趣、智能的投资体验。自创立以来,公司已获得多国头部美元基金及知名科技企业创始人的多轮投资,产品覆盖40多个国家和地区的用户。
RockFlow支持美港股等多个股票市场交易,并创新性地为用户打造极简期权产品和牛人自动跟单等功能,让投资成为一种生活方式。2025年,公司正式推出全球首款金融AI Agent产品Bobby,基于自研AI Agents架构与金融大模型算法,用户可使用自然语言与Bobby互动,实现从实时投资机会捕捉、投资分析、交易策略构建到下单交易的完整投资交易闭环,让每个人都能轻松参与并感受投资乐趣。
热门专题
热门推荐
要提升HDFS集群的稳定性,这些配置与优化思路值得关注 想让你的Hadoop分布式文件系统(HDFS)集群运行得更稳定、更可靠吗?这既是一项系统工程,也有一套清晰的优化路径——关键在于,你是否在硬件选型、参数配置、运维管理等核心层面都进行了系统性的规划与调优。下面这张图,可以帮助你快速建立起一个关于
HDFS副本策略调整指南 一 核心概念与层级 要玩转HDFS的副本策略,得先理清几个核心概念。它们像齿轮一样层层咬合,共同决定了数据最终落在哪里。 副本因子:这个最好理解,就是一个数据块要存几份。它直接决定了数据的可靠性和存储开销,默认值是3,算是可靠性与成本之间的经典平衡点。 副本放置策略:这是N
HDFS:一个为容错而生的分布式文件系统 在分布式存储领域,数据的安全性与可靠性是系统设计的核心。HDFS(Hadoop分布式文件系统)之所以能成为大数据生态的基石,关键在于其设计了一套多层次、自动化的容错机制。这套机制确保了在硬件故障、网络异常等常见问题发生时,数据依然保持完整且服务持续可用。本文
在HDFS中设置合理权限:一份实战指南 在Hadoop分布式文件系统(HDFS)中,权限管理绝非小事。它直接关系到数据的安全底线和系统的稳定运行。那么,如何为HDFS中的文件和目录设置一套既安全又实用的权限规则呢?下面这份指南,或许能给你带来清晰的思路。 1 基本概念 在动手之前,先得理清几个核心
在Hadoop分布式文件系统(HDFS)中实现数据压缩 处理海量数据时,存储成本与传输效率是两大核心挑战。HDFS提供了多种数据压缩方案,能够有效降低存储空间占用并提升数据处理性能。本文将详细介绍在HDFS中启用和配置数据压缩的几种实用方法。 1 配置文件设置 最直接且全局生效的方式是通过修改Ha





