Workflow
Ollama
icon
搜索文档
你还在 draw.io 里拖拖拽拽?一句话让架构图自己长出来~
菜鸟教程· 2025-12-08 11:30
产品概述 - 该产品是一个名为Next AI Draw.io的AI辅助画图项目,旨在通过AI技术自动生成和修改draw.io架构图[2] - 产品核心价值在于解决手动绘制复杂系统架构图时存在的耗时、布局调整繁琐、样式不美观等痛点[1] 核心功能 - 支持通过自然语言描述生成架构图,例如用户输入“帮我画一个带动画连线的Transformer架构图”,AI即可自动生成标准、规整、可编辑的draw.io XML文件[7] - 支持图像重构功能,用户上传模糊或截图后的架构图,AI可将其还原为可编辑的图表,并自动拉直线条[9] - 支持通过对话指令修改现有图表,例如要求“把前端换成GCP实例,再加个Azure服务总线”,AI会直接对图表进行相应更改[9] - 提供图表历史记录功能,允许用户回退到任意历史版本,避免操作失误[10] - 提供交互式聊天画图面板,用户可通过增删改查的指令实时更新图表[10] 技术特性与支持 - 产品支持多种大型语言模型作为后端,包括AWS Bedrock(默认)、OpenAI、Anthropic、Google AI、Azure OpenAI、Ollama等[17] - 技术栈基于Next.js前端框架、Vercel AI SDK以及react-drawio图表库构建[19] 市场热度与获取方式 - 该开源项目在GitHub上获得了较高的关注度,Star数达到45.5k,Fork数达到3.3k[3] - 产品提供在线体验地址,用户可直接通过浏览器访问使用[3] - 提供两种主要的本地部署方式:官方推荐使用Docker一键启动;也可通过克隆GitHub仓库进行手动安装和配置[24][25][26]
从 Apple M5 到 DGX Spark ,Local AI 时代的到来还有多久?
机器之心· 2025-11-22 10:30
云端AI算力投资与英伟达的本地计算布局 - 全球云端AI算力中心投资规模巨大,预计到2028年累计支出接近3万亿美元,其中1.4万亿美元由美国大型科技公司覆盖 [4] - 微软宣布投资约800亿美元建设AI数据中心,主要用于训练AI模型和推出AI云应用 [4] - 英伟达发布售价3999美元的DGX Spark桌面级AI超算,并与多家OEM厂商合作计划在2025年底前全球分销,该设备提供千万亿次浮点运算性能和128GB统一内存,支持对2000亿参数模型进行推理和700亿参数模型进行微调 [4][5] 消费终端Local AI的构成要素 - 消费终端Local AI的成熟需具备三大要素:端侧硬件算力底座(如DGX Spark)、本地模型的生态工具链以及能在真实场景中运行的本地产品 [6] - Apple Silicon等芯片正持续下放端侧推理能力,同时Ollama等本地运行时和Gemma 3等端侧模型供给加速成熟,推动离线本地产品从“跑起来”走向“用起来” [1][2] 消费终端Local AI面临的关键挑战 - 当前消费终端Local AI的大众化落地仍面临关键门槛,包括本地算力和能效、内存带宽、知识更新以及开箱即用体验等方面的制约 [1][3] - SLM(小语言模型)与端侧芯片新架构的结合,将是推动消费终端Local AI能力边界扩展的关键方向 [3]
大模型“带病运行”,漏洞占比超六成
36氪· 2025-11-17 18:34
大模型内生安全风险现状 - 2025年3月,开源大模型工具Ollama被通报存在严重漏洞,可能导致数据泄露、算力盗取和服务中断等安全风险 [1] - 2025年6月,英国高等法院发现数十份法律文书中含有ChatGPT生成的虚构判例,暴露出输出可信度问题 [1] - 2025年国内首次AI大模型实网众测发现281个安全漏洞,其中大模型特有漏洞占比超过60% [1] - 大模型的数据安全、算法鲁棒性、输出可信度等内生风险已从理论隐患变为现实威胁,关乎公共利益与社会秩序 [1] 主要风险类型与事件 - 数据泄露、输出误导、内容违规是当前最频发的安全风险类型 [3] - 金融、医疗领域出现三起“Prompt误喂”事件,员工将含客户身份证、病史的完整字段直接输入对话框,导致敏感信息被模型吐出并被合作方爬虫截获 [3] - 数据泄露被描述为高频“灰犀牛”事件,根本原因在于缺乏“敏感实体识别+对话级脱敏”的实时防护闸口 [3] 行业风险评估与趋势 - 安远AI发布的前沿AI风险监测报告显示,过去一年发布的模型风险指数持续创新高 [3] - 网络攻击领域的累积最大风险指数比一年前增长31%,生物风险领域增长38%,化学风险领域增长17%,失控领域增长50% [3] - 行业存在“重能力迭代、轻安全建设”的倾向,推理模型在能力分上显著高于非推理模型,但安全分分布范围高度重叠,风险敞口随能力提升而扩大 [5] - 采用模型诚实性评估基准MASK进行监测的结果显示,只有4个模型得分超过80分,同时有30%的模型得分不到50分 [5] 安全治理挑战与应对 - 大模型风险评估多由厂商自行开展,但不少厂商未发布评估报告,且评估标准不统一,透明度低 [7] - 技术迭代快于治理节奏的矛盾持续加剧,攻击者利用大模型生成新型攻击手段的周期越来越短,而行业制定防护方案和标准规范需要数月甚至更久 [11] - 安全治理存在“三不管”地带,数据归属、模型责任、应用边界没有统一切口,导致“监管等标准、标准等实践、实践等监管”的死循环 [12] 新型风险与未来趋势 - AI智能体和多模态模型的发展将带来新的安全风险形态,其更强的能力可能被恶意用户利用来实施危害性更大的行动 [11] - 多模态模型存在“多模态越狱”风险,例如图片中隐藏人类不可见文字指令以诱导模型执行有害任务 [11] - 未来12~24个月,最值得警惕的风险是“模型供应链投毒”与“自主智能体滥用”,前者可能污染预训练数据、插件或工具链,后者可能将“写邮件”动作放大成“自动转账” [11] 风险监测平台与方法 - 安远AI发布的前沿AI风险监测平台专注于评估与监测前沿AI模型灾难性风险,对全球15家领先模型公司的前沿大模型的滥用和失控风险进行针对性评估和定期监测 [2] - 平台评估方法分为五个步骤:定义风险领域、选择测评基准、选择前沿模型、运行基准测试、计算指标 [8] - 评估聚焦于网络攻击、生物风险、化学风险和失控四个最受关注的灾难性风险领域,从“能力”和“安全”两个维度进行测评 [8]
深度 | 安永高轶峰:AI浪潮中,安全是新的护城河
硬AI· 2025-08-04 17:46
AI安全风险管理 - 安全风险管理从成本中心转变为构建品牌声誉和市场信任的价值引擎 [2][3] - 安全合规从被动约束条件升级为主动战略优势,是AI企业技术同质化后的关键胜负手 [3] - 安全直接决定企业信任与市场估值的核心资产 [4] AI风险特征与挑战 - AI风险已从实验室走向实际场景,如开源工具Ollama的默认开放端口漏洞 [6] - 算法黑箱与模型幻觉导致风险隐蔽性强、责任归属难度高 [6] - AI攻击具备模型幻觉和算法黑箱等新特性,传统防护方法难以应对 [6] - AI能通过碎片化数据精准重建个人画像,推断用户未意识到的敏感信息,导致歧视性定价、精准诈骗等风险 [6] AI安全防护策略 - 企业需建立适应AI特性的新型安全防护体系,包括输入输出沙箱隔离、指令优先级管理和上下文溯源等多维度机制 [7] - 采用"核心闭源、外围开源"组合策略,核心业务用闭源模型降低风险,外围创新用开源模型提升灵活性 [7] - AI备案应转化为风险管理能力提升契机,而非简单合规动作,需建立持续监控和企业级数据治理体系 [6][15] AI安全治理框架 - 构建AI安全治理模式需从组织职责、合规、安全机制到技术手段建立完整框架 [9] - 借助"安全智能体"团队实现主动威胁狩猎和精准异常行为分析,提升安全工作效率 [9] - 形成人机协同的最终防线,AI负责自动化攻防对抗,人类专家聚焦管理决策和战略规划 [9] 企业实践建议 - 企业家需保持对技术迭代的「好奇心」、解决真问题的「务实心」和对安全合规的「敬畏心」 [7][23] - 将AI安全合规视为战略投资,完善治理体系可获得品牌认可与信任溢价 [7] - 传统企业应用AI需补齐系统性短板,包括安全合规体系、责任意识和文化建设 [13] 开源与闭源模型选择 - 开源模型优势在于透明化,但需自建端到端安全防护能力并警惕供应链污染风险 [20] - 闭源模型提供一站式安全合规保障,但算法黑箱特性可能导致解释权缺失纠纷 [21] - 技术实力强且对自主可控要求高的企业适合开源模型,技术能力有限的企业更适合闭源模型 [22] 隐私保护重要性 - "以隐私换便利"在AI时代风险不可逆,如生物特征数据泄露无法重置 [10] - AI能汇总个人所有公开渠道信息,企业需从源头做好语料清洗和拒答策略 [11] - 行业普遍疏忽隐私保护将导致更严重后果,如大模型无意泄露个人训练数据 [11] 提示词注入防御 - 提示词注入类似"社交工程学",通过语言陷阱诱骗AI执行非法操作 [16] - 防御策略包括AI行为动态检测、指令优先级隔离、输入输出沙箱化和上下文溯源 [19] - 将安全规则固化为模型本能反应,而非可被用户输入覆盖的临时指令 [19]
靠"氛围编程"狂揽 2 亿美金,Supabase 成 AI 时代最性感的开源数据库
AI前线· 2025-05-20 09:24
Supabase发展里程碑 - 2025年站上"Vibe Coding"开发趋势风口,成为AI原生应用首选后端 [1] - 2025年完成2亿美元D轮融资,投后估值达20亿美元,累计融资近4亿美元 [1] - 管理350万个数据库,服务超200万开发者,GitHub代码库得星数超8.1万 [17] Vibe Coding工作流 - 开发流程:从PRD文档→数据库schema设计→服务实现的全AI工具链协作 [4] - 典型工具组合:Grok生成PRD + Cursor/Claude生成代码 + Supabase后端部署 [4][5] - 效率提升:Lovable等平台结合Supabase可实现"提示词生成全栈应用"的极速开发 [5] 技术整合与产品演进 - 2023年2月集成PGVector扩展,支持RAG应用开发 [11] - 2023年与Ollama集成实现本地AI开发环境 [11] - 2023年12月推出AI助手,获Product Hunt年度最佳数据产品奖 [13] - 2025年上线MCP服务器,实现AI工具与数据库的深度连接 [14] 竞争优势 - 开源策略:40%员工来自开源贡献者,25款开源工具强化Postgres生态 [11][17][21] - 产品定位:直接基于PostgreSQL开发,相比Firebase减少抽象层 [17][21] - 商业模式:坚持不涨价策略,通过规模效应实现盈利 [20][21] 行业影响 - 被Accel比作"新时代的甲骨文/MongoDB",预计在高价值数据库领域占据主导 [21][22] - 成为Bolt.new、Lovable、Vercel v0等前沿开发平台的标准后端配置 [5][8] - 远程团队布局新西兰/秘鲁/马其顿,持续扩展AI与企业应用市场 [22]
李礼辉:构建可信任的数字金融 | 金融与科技
清华金融评论· 2025-05-11 18:39
中国大模型发展的新突破 - DeepSeek-V3开源模型获全球高度评价,性能与GPT-4o相当,多项表现位列全球前几名,训练成本仅600万美元,远低于GPT-4o的1亿美元 [4] - 算法创新成为核心竞争力,包括MLA多头潜在注意力机制、MoE混合专家架构等,为金融机构提供重要技术支撑 [4] - 昇腾910B芯片实现自主化突破,半精度算力超越英伟达A100,能效比高25%,国内产业链快速适配形成模型即服务等应用模式 [5] AI技术的陷阱与挑战 - 安全风险突出,如Ollama框架存在无鉴权机制、数据窃取和恶意攻击漏洞,影响模型服务的稳定性和数据完整性 [8] - 主流大模型如Grok-3、GPT-4、DeepSeek-V3均存在模型幻觉问题,且尚未解决歧视、算法共振、隐私泄露等技术缺陷 [9][10] - AI智能体首次被用于网络攻击,动态代码生成能力对国家安全防御体系构成新挑战 [10] 数字金融创新的挑战与目标 - 金融行业需实现从"可用"到"好用"的跨越,核心在于构建可信任的数字金融,主动防范AI陷阱并满足监管要求 [12][13] - 垂直模型需聚焦金融场景专业化能力,而非通用复杂问题解决能力,强调模型可信度和解释性 [13] 可信任数字金融的构建路径 - 高可靠性要求:部署AI时需强化防火墙、零信任架构等安全措施,针对不同场景需特别注意模型幻觉、歧视等问题 [15] - 可解释性为关键:需展示完整推理路径,通过可视化工具和注意力机制提升透明度 [15] - 行业级与企业级模型协同发展:预训练行业级模型降低边际成本,科技企业与金融机构合作共建生态圈 [16]