2022年5月1日21点20分 先放一张图片 high! 一下 在这里终于能理解到 为什么pytorch 的好用 和我对embedding 操作 将近一个月的误解!! 我真的是high到不行了 0. 前言 (很重要) ...
PyTorch 张量操作
感谢: https://mp.weixin.qq.com/s/Xy47wBVurmCH6QmGtM_mow 0. 前言 在阅读别人编写的源码的过程中,对于他人能够灵活操作torch向量 感觉十分的神奇,于是乎俺也来写一个文档作...
git 沙雕使用
我作为个人开发者,对于git的使用了解个大概就好 首先 先拉一张图 在git的分级中存在 这样的工作目录 这个暂存区 言如其名 我也不晓得是啥 本地仓库 就是文件发送的最后一个位置 远程仓库 对于 我们来说就是github了 ...
毕业论文思路
前言做一个能扫描视频内容的搜索框 https://zhuanlan.zhihu.com/p/420469399 我能思考到的技术点 ocr扫描 视频内容对其 模糊搜索 关键帧抽取 时间 :2022/4/...
顺序推荐模型综述
感谢:https://www.researchgate.net/publication/337183009 名字:Sequential Recommender Systems: Challenges, Progress and Pro...
cin的沙雕理解
0. 前言感谢: https://www.jianshu.com/p/b4128bc79df0 https://zhuanlan.zhihu.com/p/371849616 https://zhuanlan.zhihu.com/p/...
小看的FM
感谢: https://zhuanlan.zhihu.com/p/58160982 https://blog.csdn.net/bitcarmanlee/article/details/52143909 https://www.jia...
Capsule 网络
0. 简单总结感谢:https://juejin.cn/post/6844903986995134471 https://zhuanlan.zhihu.com/p/90073690 为了改善CNN对旋转不具备不变性,学习不到3D空间信...
transformer 详解!(写的像人话一点)
0. 奠基大佬 Bahdanau Attention & Luong Attention 1. 自注意力和多头 Self Attention & Multi-head Attention 为什么自注意力呢? ...
attention机制 简单理解(废弃) 说实话看不太懂 太抽象
在反复回卷的attention中,本人感觉心里憔悴 一定得总结一个俺能看懂的文章 最近发现了这样的一篇 感谢: https://zhuanlan.zhihu.com/p/77307258 https://jalammar.github...