笔记前言这是“踏上交易之路”系列第四期,也是关于“止损”主题的第二部分。本期视频的核心观点是:止损(或止盈)本质上是“离场”,而离场的唯一标准,应该是你“入场的前提”是否依然成立。
视频深入探讨了在趋势行情中,我们应该如何设置和移动止损,以及在趋势的什么阶段应该选择主动离场,而不是被动等待止损被触发。
1. 核心前提:止损点与“重要低点”
复习: 在一个上涨趋势中,我们寻找的是不断抬高的低点。一个“重要低点”是指,当价格从这个低点反弹后,成功地、强力地突破了前一个高点。
传统止损法: 交易者的保护性止损,就应该放在这个“重要低点”的下方。随着趋势不断创出新高和新的“重要低点”,止损也随之向上移动(追踪止损)。
问题: 这种方法在“完美趋势”中很有效,但如果趋势并不完美,或者你入场的位置很高,价格距离你那个“重要低点”的止损位非常远。如果真的等价格跌到那里,你的利润回撤会非常巨大,甚至由盈转亏。
2. 复杂回调与“TBTL”概念
观点: 大多数回调都不是简单的一根阴线就结束的。市场需要“充分的回调”。
回调结构: 常见的回调结构包括两段式回调(ABC回调)、双...
vector derivatives
Backprop with Vector
Jocobian用于输出输入均为向量的时候求导
注意方向问题
例子
如果只改变一个元素x影响y的什么
改变
只影响
所以只用 第一行回传
影响多少
Convolutional Neural NetworksFully Connected Layer
Convolution Layer
Filter(卷积核)= 一小块可学习的权重参数
它是一个张量:
k×k:空间大小(比如 3×3、5×5)
C:输入通道数
里面全是可训练参数(weight)
Fully Connected
Convolution
每个神经元看全图
每个神经元只看局部
参数巨大
参数很少
无空间结构
保留空间结构
无权重共享
权重共享
可视化
convolution(卷积)
有 32 个 5×5 卷积核,一个卷积核是5* 5* 3
每个卷积核都会在整张图上滑动(并行的)
每个卷积核输出 一张特征图
所以得到 32 张 activation maps
卷积的计算过...
Substitution method (考点)Steps of the substitution method for solving recurrences:i. Guess the form of the solution.ii. Use the mathematical induction to find the constants and show that the solution works.This method is powerful, but we must be able to guess the form of the answer in order to apply it.
明确上下界
Example1. 递归式我们从递归式出发:
直觉上,它应该是 O()。
2. 猜测解的形式猜测 ,其中 c>0 是一个常数。目标:证明这个不等式在合适的 c下对充分大的 n 成立。
3. 归纳假设与代入假设对于所有比 n 小的正整数 m,不等式成立:
特别地对 使用假设:
4. 代回递归式代入原式:
化简:
只要 ,就有
5. 基例问题如果从 n=1...
一 、词汇的编码信的所有内容就是这4个词的组合。第一封信写着”狗猫鱼鸟”,第二封信写”鱼猫鸟狗”。信件需要二进制编码,在互联网传递。两个二进制位就可以表示四个词汇。
狗 00
猫 01
鱼 10
鸟 11
所以,第一封信”狗猫鱼鸟”的编码是00011011,第二封信”鱼猫鸟狗”的编码是10011100。
二、词汇的分布最近,小张开始养狗,信里提到狗的次数,多于其他词汇。假定概率分布如下。
狗:50%
猫:25%
鱼:12.5%
鸟:12.5%
小张的最新一封信是这样的。
狗狗狗狗猫猫鱼鸟
上面这封信,用前一节的方法进行编码。
0000000001011011
一共需要16个二进制。互联网的流量费很贵,有没有可能找到一种更短编码方式?
很容易想到,”狗”的出现次数最多,给它分配更短的编码,就能减少总的长度。请看下面的编码方式。
狗 0
猫 10
鱼 110
鸟 111
使用新的编码方式,小张的信”狗狗狗狗猫猫鱼鸟”编码如下。
00001010110111
这时只需要14个二进制位,相当于把原来的编码压缩了12.5%。
根据新的编码,每个词只需要1...
random search
这页在讲最原始、也最低效的一种“训练模型”的办法:随机搜索(random search),本质上是在用纯暴力试错来最小化损失函数。
假设你已经有训练数据 、标签 ,以及一个给定参数矩阵 W 就能计算出的损失函数 。代码先把当前最优损失 bestloss 初始化为无穷大,然后重复很多次(这里是 1000 次):每一次都 随机生成一组模型参数 W(例如线性分类器的权重矩阵),用这组参数在整个训练集上计算一次损失;如果这次的损失比历史最小值还小,就把这组参数保存下来。循环过程中不断打印“第几次尝试、当前损失、目前为止最好的损失”。最终得到的 bestW 只是 1000 次随机采样中表现“相对没那么差”的那一组参数。
结果大约是 15.5%,为什么幻灯片会说 “not bad”?因为这是一个 10 类问题,纯随机猜测的期望准确率只有 10%,而这个模型虽然是“瞎搜参数”,但已经学到了一点点数据分布的弱结构;不过和 SOTA(≈99.7%)相比,这个差距正好用来强调一个核心结论:不是线性模型不行,而是用“随机搜索”这种不利用梯度信息的优化方法,在高维参数空间里几...
深入地理解关于加拿大的底层逻辑,我们需要跳出表象的“生活便利性”或“经济增速”,进入到身份属性、税务筹划、职业壁垒以及国家战略储备这四个更深层的维度。
一、 身份的“隐形护城河”:法律保护与领事探视权顶级财富人群选择加拿大,核心看中的是其护照背后的法律底气。
避圈大佬的生存逻辑: 塑造加密货币行业版图的两位关键人物——以太坊创始人维塔利克(Vitalik)和币安创始人 赵长鹏(CZ)都拥有加拿大背景。在2017年“监管风暴”时, 赵长鹏凭借 加拿大国籍和境外服务器**的优势,在其他交易所老板被约谈时保持“自由之身”,迅速接管市场,实现了对老牌交易所的“弯道超车”。
领事探视权的实质: 对于在高风险、法律灰色地带(如早期的ICO、金融创新)穿梭的人士,加拿大护照意味着第一梯队的领事保护力。这意味着在遭遇司法纠纷时,可以有效避免远扬不捞、行讯逼供等极端情况,这种安全边界在动荡时期是巨大的竞争壁垒。
二、 税务制度的降维打击:灵活的“非税务居民”策略加拿大与美国在财富管理上的底层逻辑完全不同,这决定了它对全球化企业家更具吸引力。
对比美国(全球征税): 美国实行全球征税,且放...
CIFAR-10
分类器输出的是 scores,不是概率
随机初始化的 W 基本是“瞎猜”,所以大多数列都是 bad
训练的目标,就是调整 W,让 正确类别的 score 永远比其他类别高
score 只是“打分”,没有好坏尺度
loss 把“预测对错 + 错得多严重”压缩成一个数
数据集 loss = 所有样本 loss 的平均
训练 = 调 W,让 loss 变小
Multiclass SVM loss深度学习里的 SVM loss ≠ 传统 SVM 模型
对不对(classification)
错 → 一定有 loss
错得有多离谱(ranking & margin)
错得越多,loss 越大
对得是否“有把握”
对了但 margin 不够,也会被罚
看图
情况 1:
正确类别 明显赢了
蓝线在 0 上
loss = 0
不罚,说明模型对这个类别“有把握”
情况 2:
正确类别虽然更大,但 margin 不够
loss 是正的
差得越少,罚得越多
预测对了,但不自信,也要罚
情况 3:
错...
以下是关于公募基金行业“生存真相”的深度解析:
一、 制度性陷阱:基金为何沦为“收割对象”?在专业投资者眼中,公募基金往往不是对手,而是 “猎物。其核心原因在于基金背后极其僵化的 制度性约束。
“带血的筹码”与强制平仓:许多基金合同中明确规定了投资范围(例如必须是2A级以上债券)。一旦债券信用评级因突发新闻被下调,即便基本面尚可,基金经理也必须在合规和风控的严厉要求下,不计成本地在最短时间内抛售。这种“为了合规而非为了价值”的抛售,会导致价格瞬间崩盘(如从90元跌至60元),为专业投资者提供了“捡尸体”的无风险套利机会。
“大象难掉头”的流动性困境:散户和游击队式的专业投资者可以秒速清仓,但持有数十亿甚至百亿资金的基金由于规模庞大,一旦大规模减持就会引发股价崩溃。他们如同满载的巨轮,即使看到了冰山(风险),也往往来不及转弯,只能眼睁睁地看着净值沉没。
预测“羊群”的行为:专业投资者利用这些制度性约束,精准预判基金被迫买入或卖出的时间点,提前布局,静待基金经理自己“走过来”被收割。
二、 核心商业逻辑的错位:管理费 vs. 收益率基民与基金公司之间存在着天然的利益不一致。...
Batched Matrix Multiplication
图中前面的 () 表示 批次维度(batch dimensions),也就是“有多少个矩阵同时在做乘法”。在 batched matrix multiplication 中,最后两维 (n,m) 与 (m,p) 按普通矩阵乘法规则相乘,而前面所有维度(这里是 )并不参与数值运算,只用于索引不同的矩阵批次;它们必须相等或满足广播规则,结果中这些维度会被原样保留下来.
Broadcasting
我们允许矩阵与向量直接相加,虽然在线性代数的严格定义里这本来是未定义的操作;具体做法是规定结果矩阵 C 的每个元素满足 ,也就是说向量 b 被当作在行方向上复制,加到矩阵 A 的每一行上,从而得到一个同形状的矩阵,而无需显式构造一个“每一行都等于 b”的大矩阵
规则第 1 条(右到左比较维度)
If the two arrays differ in their number of dimensions, the shape of the one with fewer dimensions is padded with ones ...