
深度学习
文章平均质量分 92
由浅入深的介绍深度学习 面试中经常被问到的问题
无枒
万物皆可embedding
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
还不知道怎么提示LLM?ChatGPT提示入门
人工智能(AI)是人们创造的一些“聪明的”的算法,使得机器能够像人类一样“思考”。这些算法可以写论文、解决数学问题,并创造艺术。该领域的最新进展已经十分先进,以至于人工智能可以写出令人信服的销售邮件、新闻报道,甚至可以赢得艺术比赛。提示过程指的是人类如何指导 AI 执行任务,即指导人工智能执行任务的过程称为提示过程。我们向 AI 提供一组指令(提示),然后它执行任务。提示可以简单到一个问题,也可以复杂到多个段落。而提示过程的好坏可以在很大程度上影响到AI大模型生成答案的能力!原创 2023-08-21 10:55:40 · 1220 阅读 · 0 评论 -
IVF-PQ 基于量化的向量检索算法
IVF-PQ:基于乘积量化的向量检索算法原创 2022-08-18 11:11:23 · 6012 阅读 · 1 评论 -
推荐算法工程师必备技能储备
推荐算法工程师必备知识储备原创 2022-08-11 14:34:10 · 961 阅读 · 0 评论 -
搜索算法工程师必备知识储备
搜索算法岗复习策略原创 2022-08-11 13:45:45 · 1172 阅读 · 0 评论 -
搜索&推荐&广告算法岗区别
搜推广算法岗的区别是什么?原创 2022-08-11 13:06:31 · 1879 阅读 · 0 评论 -
Slurm超算集群跑代码教程
Slurm超算集群跑代码教程SLURM(Simple Linux Utility for Resource Management)是一种可扩展的工作负载管理器,已被全世界的国家级超级计算机中心广泛采用。 在算力中心GPU计算集群上,用户的所有计算任务和程序需要编写 SLURM 脚本,并在登 陆节点提交 SLURM 脚本。SLURM 脚本包含三个部分:(1)预定义的任务资 源需求;(2)预定义的环境设定或变量;(3)命令行形式的可执行程序或脚本。文章目录Slurm超算集群跑代码教程登陆集群配置ana原创 2022-05-08 15:03:00 · 7267 阅读 · 5 评论 -
科研第五步:如何使用DDP分布式多GPU并行跑pytorch深度学习训练
DDP分布式多GPU并行跑pytorch深度学习模型多卡并行代码模板文章目录DDP分布式多GPU并行跑pytorch深度学习模型前言一、DDP怎么用二、使用步骤1.引入库2.读入数据总结前言PyTorch的数据并行相对于TensorFlow而言,要简单的多,主要分成两个API:DataParallel(DP):Parameter Server模式,一张卡为reducer,实现也超级简单,一行代码。DistributedDataParallel(DDP):All-Reduce模式,本意是用来分布式原创 2022-03-04 17:57:44 · 6457 阅读 · 0 评论 -
科研调参:batch_size怎么设置?
batch_size怎么设置?是不是batch_size越大越好?首先反对上面的尽可能调大batch size的说法,在现在较前沿的视角来看,这种观点无疑是有些滞后的。关于这个问题,我们来看下深度学习三巨头之一的LeCun杨乐春同志怎么说(想看结论直接翻到最后):Training with large minibatches is bad for your health. More importantly, it’s bad for your test error. Friends don‘t le原创 2021-12-02 14:26:51 · 3554 阅读 · 1 评论 -
NLP必学:Word2Vec、Glove和ELMO
文章目录前言一、one-hot表示二、词嵌入表示法三、word embedding的作用1. 迁移学习2.类比推理四、Word2VecSkip-gramCBOWWordVec的优化1. 分级softmax分类器2.负采样五、GloVe六、ELMO总结前言词汇表示(Word Representation)一直是自然语言处理(NLP)中最基础也是最重要的任务之一。 深度学习已经给这一领域带来了革命性的变革。其中一个很关键的概念就是词嵌入(word embeddings),这是语言表示的一种方式,我们可以理解原创 2021-11-06 14:41:14 · 5240 阅读 · 0 评论 -
Transformer是什么?看完这篇你就醍醐灌顶
前言由谷歌团队提出的预训练语言模型BERT近年来正在各大自然语言处理任务中屠榜(话说学者们也挺有意思的,模型名都强行凑个芝麻街的人物名,哈哈哈)。 BERT算法的最重要的部分便是Transformer的概念,它本质上是Transformer的编码器部分。 而Transformer是什么呢?transformer是永远的神,自从transformer使用了抛弃rnncnn的纯attention机制之后,各种基于transformer结构的预训练模型都如雨后春笋般雄起,而transformer中最重要就是使用原创 2021-09-15 14:30:11 · 64624 阅读 · 0 评论