-
从Git规范谈软件开发流程
一般软件产品从需求到正式上线分成这几个过程,需要RD、OPS、QA共同参与,如果有工具将三者有机的结合起来,提高开发效率,就是我们常说的DevOps。 一般通过平台实现DevOps的半自动化,包含 需求,设计,编码,测试,部署,监控,反馈,然后迭代循环。 快速迭代的内部产品,往往要求程序员具备从需求分析,编码自测到快速部署的能力,能够快速验证并迭代产品,据说这是Amazon要求程序员做的基本功。 下面就几个关键步骤说一下我自己的理解,包括需求,编码,测试,部署这几个模块。
-
从似然MLE推导最小二乘OLS谈机器学习三要素
最近被人问到最大似然,最小二乘,梯度下降,我发现一不留神很容易搞不清楚概念:对于机器学习三要素的问题,定义目标和怎么用算法达到这个目标的事儿,这几个概念清楚了,就知道梯度下降和前两者是不同的。下午写篇博客来梳理记录一下:
-
大数据技术漫谈:数据一致性那点事儿
AI时代公司要胜出,拼算法和数据。算法就那么些经典的可以挖掘,所以最宝贵的可能就是数据资源了,也就是前几年满大街的大数据思维。大数据有短时间过热的嫌疑,但从长远来看,未来是属于大数据的。最近零零碎碎的看了一些大数据相关资料,结合自己的理解,来谈谈大数据相关一些零星技术思考,本篇就从一致性技术谈起吧。写的有点杂乱,但还是分3点说明:
-
浅析RNN(LSTM)网络结构【附源码】
前一篇博文讨论了深度学习基础和一些数学知识,比如Word2vec,为啥要选mikolov的word2vec,虽然这个模型还不是深度网络,但包含了多次LR的参数训练,这个过程我觉得就是所有神经网络的算法基础。目前深度学习用的比较多的是CNN,RNN。在图像中用CNN比较多,因为CNN中的filter+pooling可以在图片各种位置空间上学习出多种多样的特征。在时序信息(信息是有关时间和序列的)中用的比较多的是RNN,比如语音,NLP,以及时序信息。LSTM是RNN中的用的比较多的网络,看了许多资料现在算是明白一些了。本文也分3个部分,最后会附上样例代码,现在开始从底层分析LSTM的结构吧。
-
从word2vec源码讨论深度学习基础
最近AlphaGo战胜了柯洁让人工智能又火了一把,BAT的老大们(据说分类为技术男,文科生,产品经理)在讨论,大牛Jordan说AI过火了。所有的讨论狗来说都算是胜利。建立在神经网络结构上的机器学习算法确实比以往的算法表达能力更为广泛,谷歌的单TPU2结构可以达到45 TFLOPS,这种专门为Tensor矩阵计算做出的ASIC集成芯片,相比如NVIDIA的volta的120TFLOPS的运算速度虽然差一些,但成本据说便宜了近90%。抛开业界如火如荼的产品和发布会不谈,拨开五颜六色的产品,从最底层了解深度学习的技术是很有意思的一件事情,让我们就从13年mikolov发布的训练词向量的模型word2vec入手吧,我分成3点来讲讲这个模型。
-
利用Jekyll在Github搭建博客
这周末刚好项目不那么忙,抽空利用jekyll在本地上搭建博客,然后推送到自己的Github博客中,对日常中好奇,好玩,复习的知识进行记录,也分享给感兴趣的朋友。