捡垃圾之洋垃圾小主机
学校的有线网络pppoe拨号能用上公网ipv4,于是我就打算搞一台小主机当服务器。 硬件 配置如下: Model Price Source Note NEC8代小主机(主板+机箱) 239 闲鱼 其实是联想的马甲 联想90W电源 27 闲鱼 DDR4 笔记本 8g x2=16g 95.5 闲鱼 i3-8100 118.81 拼多多 m2 256g 固态硬盘 0 - 我有闲置的 共计480.31¥。 注意事项 我买到的这个主机可能内存条插槽有点氧化了,用内存条反复在插槽中摩擦了几下才正常工作。 HDMI接口不是特别牢固,把HDMI线往下压住才能正常工作。DP没有这个问题。 Q&A Q:为什么CPU不选用适用于低功耗主机的i3-8100...
deepseek-R1技术学习
引言 最近deepseek-r1模型发布了,相关的技术细节也一同被发布。于是花了几天时间读了一下这篇论文DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 正文 deepseek-R1-zero(不是deepseek-r1)仅仅只使用了无监督的强化学习,就达到了相当高的水平。在深度学习高度依赖各种数据标记的大环境下,deepseek-r1-zero展现出了一种新的思路。 这里引用原文: our goal is to explore the potential of LLMs to develop reasoning capbility without any supervised data. Reward建模 reward设计有以下两处: 正确奖励 格式奖励 正确奖励 这里很有意思,只奖励结果。结果正确就满分,错误就得不到一点奖励。 we find that the neural reward model may suffer from reward...
一道算法题的数学推导
题目 来源:https://www.luogu.com.cn/problem/B2133 我家住在一条短胡同里,这条胡同的门牌号从 111 开始顺序编号。 若其余各家的门牌号之和减去我家门牌号的两倍,恰好等于 nnn,求我家的门牌号及总共有多少家。数据保证有唯一解。 输入 nnn。要求程序输出两个正整数,分别是我家的门牌号及总共有多少家,中间用单个空格隔开 样例: 输入 100 样例输出 12...
离散数学:树
Definition 连通的且不含圈的图称为树 度为1的结点称为叶结点 度大于1的结点称为支点、内点 推论 每对结点仅有一条路径 m=n−1m=n-1m=n−1 任何非平凡树至少有两个叶结点 阶>2的树必有割点 m叉树 推论 对于完全m叉树,(m−1)i=t−1(m-1)i=t-1(m−1)i=t−1,iii是分支点数
正态分布
正态分布 对于x∼N(μ,σ2)x\sim N(\mu,\sigma^2)x∼N(μ,σ2),其概率密度函数为: f(x)=12πσe−(x−μ)22σ2f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} f(x)=2πσ1e−2σ2(x−μ)2 二维正态分布 对于(X,Y)∼N(μ1,μ2,σ12,σ22,r)(X,Y)\sim N(\mu_1,\mu_2,\sigma_1^2,\sigma_2^2,r)(X,Y)∼N(μ1,μ2,σ12,σ22,r)其密度函数为: f(x,y)=12πσ1σ21−r2exp{−12(1−r2)[(x−μ1)2σ12−2r(x−μ1)(y−μ2)σ1σ2+(y−μ2)2σ22]}f(x,y)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-r^2}}\exp\left\{-\frac{1}{2(1-r^2)}...
正态分布导出的组合分布
卡方分布 χ2=X12+X22+...+Xn2\chi^2=X_1^2+X_2^2+...+X_n^2 χ2=X12+X22+...+Xn2 其中XiX_iXi是独立同分布的标准正态分布。 有χ2∼χ2(n)=Γ(n2,12)\text{有}\chi^2\sim \chi^2(n)=\Gamma(\frac{n}{2},\frac{1}{2}) 有χ2∼χ2(n)=Γ(2n,21) 因此 {E(χ2)=nD(χ2)=2n\left\{ \begin{aligned} E(\chi^2)&=n\\ D(\chi^2)&=2n \end{aligned} \right. {E(χ2)D(χ2)=n=2n t分布 t=Xχ2nX∼N(0,1),χ2∼χ2(n)t=\frac{X}{\sqrt{\frac{\chi^2}{n}}} \qquad X\sim N(0,1),\chi^2\sim...
离散数学-图论
...
参数估计
参数估计 结论 矩估计的参数具有传递性/极大似然不具有 正态分布极大似然估计 总体方差σ2\sigma^{2}σ2的极大似然估计量为σ2^=1n∑i=1n(Xi−μ)2\hat{\sigma^{2}}=\frac{1}{n}\sum_{i = 1}^{n}(X_i-\mu)^2σ2^=n1∑i=1n(Xi−μ)2 正态分布的置信区间 X‾=1n∑i=1nXi\overline{X} = \frac{1}{n}\sum_{i = 1}^{n}X_iX=n1∑i=1nXi服从正态分布,且X‾∼N(μ,σ2n)\overline{X} \sim...
记一次半监督学习大作业
对于训练集,这次给了两个数据集,一个是半监督的(5000个),一个是全监督的(5000个)。然后还有一个测试集、一个用于排行的测试数据集。 然后万恶的老师搞了一个排行榜,让我们去提交我们的结果 刚开始我们想的就是使用一个CNN模型,然后利用伪标签进行半监督学习。数据集肯定是增强了的,包括对于结果分类,输入也是进行了增强了的。 刚开始还好,我们提交了CNN的结果,一下子就干到了排行榜第一。 然后我们就摆烂了 然后就是在DDL的前3天,一下子就掉到第三了。😡 这下就坐不安稳,在网AI上到处找资料。然后看到了VAE模型,但之前事情有点多,就没做这个。 直到DDL的前一天下午,才开始写这个模型。 然后我初略地看了一下VAE的原理,以为我懂了,就开始写代码了。后来我才发现我理解错了。 这个是我理解的: 后面发现我理解错了,其实VAE模型还有一个KL散度啥的。但是把这玩意加上去模型反而又根本学不到东西了,由于时间比较紧,就没再去改了。 虽然但是,这个伪VAE的效果还是蛮不错的,又干到榜一了。 项目代码 Project:...
函数极小值优化算法
gig_igi代表当前步骤的梯度∇F(x)∣x=xi\nabla F(x)|_{x=x_i}∇F(x)∣x=xi,αi\alpha_iαi代表当前的学习率, AiA_iAi代表当前的HessianHessianHessian矩阵(∇2F(x)∣x=xi\nabla^2F(x)|_{x=x_i}∇2F(x)∣x=xi) 共轭向量法 p0=−∇F(x)∣x=x0α0=−g0Tp0p0TA0p0x1=x0+α0p0\begin{aligned} &p_0=-\nabla F(x)|_{x=x_0}\\ &\alpha_0=\frac{-g_0^Tp_0}{p_0^TA_0p_0}\\ &x_1=x_0+\alpha_0p_0 \end{aligned} p0=−∇F(x)∣x=x0α0=p0TA0p0−g0Tp0x1=x0+α0p0 while True:...