Workflow
投资策略
icon
搜索文档
易峯EquitiesFirst前瞻:长远的投资眼光,投资者迎新机遇
搜狐财经· 2025-03-24 18:20
公司业务模式 - 作为非传统资本提供商 采用私有制模式运营 旨在提供稳定性和投资者保护 [1] - 拥有逾二十年经验 为投资者提供累进式资本解决方案 [1] - 所有融资服务均在美国提供 不在中国境内开展此类业务 [5] 投资策略特点 - 提供战略解决方案 帮助投资者在应对短期挑战的同时优先考虑持续增长和发展 [1] - 通过独特解决方案释放投资组合潜在价值 确保流动性需求与持续财务增长之间的战略平衡 [1] - 采用前瞻性思维方式 在瞬息万变的金融环境中探索新的投资策略 [1] 目标客户群体 - 服务对象为认证投资者 成熟投资者 专业投资者或其他符合法律要求的合格投资者 [3] - 不适用于不符合相关要求的人士 [3]
投资,如何从千万到亿
集思录· 2025-03-17 22:49
文章核心观点 不同资金量级的投资者在投资策略、对手盘和面临的挑战上存在差异,需根据自身情况选择合适的投资方式并做好风险控制以实现资产进阶 [2][4] 不同资金量级投资策略 A7 - A8 - 资金量小可盯着中小票(中证2000成分股)做,研究游资、私募规律赚钱不难 [4] - 可通过打新、长期重仓权益且分散配置优质股等方式实现进阶 [5][7] A8 - A8.7 - 资金易被对手盘紧盯,需分散到几十个类似票上,但收益率会下降 [4] A8 - A9 - 需要开始研究行业、大势,对手盘变为公募基金、外资、国家队等 [4] - 可采用中大盘股策略容纳资金,或小微市值与中大盘股策略结合 [10] A9以上 - 对手盘主要是散户、大户和同体量游资,需其他方法进阶 [4] A10 - 单打独斗在当前环境下很难,账户易被关注 [4] 投资心态与风险控制 - 优先在控制回撤条件下做收益,避免单吊、大比例杠杆等方式 [2] - 等适合自己的行情,允许踏空但不允许大回撤 [2] - 随着资金增大需改变投资框架,跨过心理关,承受一定亏损以构筑心理防线 [12] 具体投资建议 - 可转债水位下降时,低价位转债摊大饼,20 - 30万一张饼,摊100个 [14] - 拿小部分仓位买股指期货吃贴水,进行期现套利 [15] - 留小部分现金作为后手,用于货币基金、打新 [16] - A8级别注重回撤控制,目标跑赢银行利息 [16] - 多元化投资,包括高股息、美股、指数etf、黄金、大饼、国债等 [18] 不同账户资金量投资者特点 - 账户内10万以下喜欢天天骂人 [6] - 账户20 - 50万专心研究市场行情 [6] - 账户100万以上喜欢分享操作经验 [6]
金融破段子 | 不要因为别人都在交卷,自己就乱写答案
中泰证券资管· 2025-03-17 17:23
投资心态与策略 - 投资中不应盲目跟随市场热点或他人选择 频繁切换投资主题可能导致收益不佳 [1] - 投资目标应以绝对收益为导向 而非与他人比较收益 高置信度是可靠支撑 [2] - 需做好买入后短期被套准备 市场波动不可避免 需提前制定应对预案 [3] 投资决策依据 - 买入理由需明确且一致 避免因不同观点而频繁改变操作策略 [4] - 不同投资逻辑对应不同操作要求 技术面买入需遵循动量策略 基本面买入需承受短期波动 [4] - 应在熟悉领域按自身节奏投资 而非盲目进入陌生领域跟随他人 [4] 长期投资理念 - 投资需坚持长期主义 认可"慢慢变富"的价值积累理念 [5]
Deepseek背景综述及在金融领域应用场景初探
中邮证券· 2025-02-26 19:07
根据研报内容,以下是量化模型与因子的总结: 量化模型与构建方式 1. **模型名称:DeepSeek-R1** - **模型构建思路**:通过混合专家(MoE)架构与动态路由技术,结合强化学习提升推理能力,实现低成本高性能的模型训练[16][38] - **模型具体构建过程**: 1. 采用MoE架构,通过门控网络动态分配任务给专家模型,实现稀疏激活[28] 2. 引入GRPO(Group Relative Policy Optimization)算法,舍弃Critic模型降低训练成本[31] 3. 使用FP8混合精度训练框架提升计算效率,减少内存占用[36] 4. 通过多令牌预测(MTP)技术增强模型预测能力[34] 5. 结合冷启动数据(高质量长思维链数据)提升训练初期稳定性[42] - **模型评价**:在极低训练成本下实现与主流大模型相当的性能,推理成本仅为GPT-4 Turbo的17%[16][43] 2. **模型名称:DeepSeek-V3** - **模型构建思路**:基于6710亿参数的混合专家模型,优化架构与训练方法以提升开源模型性能[33] - **模型具体构建过程**: 1. 延续DeepSeek-V2的MLA(多头潜在注意力)机制,减少KV缓存数量[25] 2. 扩展MoE架构至更大参数量级,结合动态路由技术[33] 3. 引入FP8混合精度训练框架[36] 3. **模型名称:DeepSeek-V2** - **模型构建思路**:设计经济高效的混合专家语言模型,平衡性能与成本[23] - **模型具体构建过程**: 1. 创新提出MLA(Multi-head Latent Attention)替代传统MHA,降低KV缓存[25] 2. 采用MoE架构实现模型容量扩展[28] 3. 使用GRPO算法优化强化学习流程[31] 4. **模型名称:DeepSeek LLM** - **模型构建思路**:基于扩展法则(Scaling Laws)研究模型规模、数据与计算资源的优化分配[21] - **模型具体构建过程**: 1. 通过小规模实验预测大规模模型性能,指导资源分配[22] 2. 验证高质量数据对模型扩展的倾斜效应[22] 量化因子与构建方式 (注:研报中未明确提及传统量化因子,主要聚焦AI模型技术) 模型的回测效果 1. **DeepSeek-R1** - 推理成本:GPT-4 Turbo的17%[16] - 训练成本:显著低于传统大模型(未披露具体数值)[43] - 日活跃用户:上线10天突破2000万[15] 2. **DeepSeek-V3** - 参数量:6710亿[33] - 支持FP8混合精度训练[36] 3. **DeepSeek-V2** - MLA机制:KV缓存减少50%以上(对比MHA)[25] - MoE架构:激活参数量仅为全模型的1/4[28] 关键公式与技术 1. **扩展法则(Scaling Laws)** $$ \text{模型性能} = f(\text{模型规模}, \text{数据规模}, \text{计算资源}) $$ 指导资源分配时需优先考虑数据质量[21][22] 2. **GRPO算法** 舍弃Critic模型,通过群体分数估计基线: $$ \text{优势函数} = \text{奖励值} - \text{群体基线} $$ 降低RL训练成本[31] 3. **多令牌预测(MTP)** 同时预测未来多个令牌: $$ P(y_{t+1}, y_{t+2}, ..., y_{t+k} | x) $$ 增强训练信号密度[34] 4. **FP8混合精度框架** 将部分计算精度降至8位浮点,内存占用仅为FP32的1/4[36]