实习经验总结
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
八股文学习:
八股文没有想象中那么重要,但还是值得一看,基础知识建议多加关注。
推荐使用网上的资源(例如推荐小林),这些资源基本够用, 无需购买知识星球等付费资源,避免成为“韭菜”。
刷题策略:
刷题不宜贪多。专注于熟练掌握 Hot 100。
做到对题目迅速有思路,并能在不依赖 IDE 的情况下写出无 Bug 的代码。
在此基础上,可以适当扩展其他题目。
简历撰写技巧:
简历中避免写不会或不太会
CAS服务器
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
组内服务器使用指南
VPN 连接
地址: https://vpn.ia.ac.cn
用户名: xushuang
密码: xushuang@2019
操作: 安装提示的插件后,即可正常使用SSH。
服务器 140
主环境:
SSH: ssh liguoqi@172.18.30.140
密码: liguoqi811
操作: 在/data1磁盘创建自己的Docker容器,确保端口不与他人冲突。
服
大创文件README
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
流失归因分析
causal analysis中放的是代码
最主要的内容是在Causal_Analysis-main中,可能不全,最好去论文中重新下载一斑
paper中放的是代码相关的论文
主要看Causal_Analysis_of_Customer_Churn_Using_Deep_Learning.pdf的内容,raw.pdf和前者内容相似,但会对前者有一些补充
dataset中放的是相关的数据集
epoch、batch、batch size、step、iteration
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
名词的具体含义介绍
本文介绍在机器学习、深度学习的神经网络模型中,epoch、batch、batch size、step与iteration等名词的具体含义。
epoch:表示将训练数据集中的所有样本都过一遍(且仅过一遍)的训练过程。在一个epoch中,训练算法会按照设定的顺序将所有样本输入模型进行前向传播、计算损失、反向传播和参数更新。一个epoch通常包含多个step。
batch:一般翻译为“批次”,表示一次
Normalization
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
参考链接
一文浅析transformer–李沐带你深入浅出transformer
归一化层(Normalization layers)
Batch Normalization
Layer Normalization
Instance Normalization:The Missing Ingredient for Fast Stylization
Group Normalization
DIFFERENTIABL
Mac使用Chrome浏览器经常卡死
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
问题
使用chrome浏览器经常卡死
解决方法
将下面这个关闭即可:
面试:关于Transformer的问题
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
参考链接
transformer模型— 20道面试题自我检测
Transformer常见问题与回答总结
Transformer论文逐段精读【论文精读】
为什么Transformer 需要进行 Multi-head Attention?
transformer中为什么使用不同的K 和 Q, 为什么不能使用同一个值?
Breadcrumbstransformers/src/transformers
/modeling
paper:Transformer
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
参考链接
Attention Is All You Need
面试:关于Transformer的问题
Neural Machine Translation by Jointly Learning to Align and Translate
Generating Sequences With Recurrent Neural Networks
The Annotated Transformer
李沐论文精读系列一
Undergraduate VS Graduate
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
本科生 VS 研究生
如果你有实际开发工作经验,感觉自己的水平和实力进入了一个高原期,迫切需要从理论上提高,那么计算机学院是唯一选择。因为计算机学院才能让你在理论上更上一层楼。软件学院从教学计划上就没有把你往这方面带。当然能不能更上一层楼最终还是完全取决于你自己。需要特别说明的是,工作经验并不一定等于开发经验,我见过很多工作2-3年的人,但是没有一点开发经验。
你说:“他们都有很强的开发能力,只是不太喜欢读书,也只
paper:ResNet
MathJax.Hub.Config({ tex2jax: {inlineMath: [['$', '$']]}, messageStyle: "none" });
参考链接
Deep Residual Learning for Image Recognition
ResNet论文逐段精读【论文精读】
1.abstract
1.0 摘要,论文导读
摘要主要内容:
深度神经网络很难训练,我们使用residual(残差结构)使得网络训练比之前容易很多在ImageNet上使用了152层的ResNet,比VGG多8倍,但是计算复杂度更低,最终赢下了ImageNet2015的
« 上一页 1 … 11 12 13 14 15 … 31 下一页 »