The Mathematics of Machine Learning
ML的数学基础不只是概率论和统计学,从这篇文章来看,线性代数也很重要。目前在看神经网络的相关资料,也确实证明了这一点。
就我目前的学习经验来说,我感觉采用这样的步骤可能会更让人放松一些:
- 快速浏览主流ML算法、应用场景和背后涉及到的数学知识,在这一步其实不必专研太深入,只要知其然即可。完全不必去考虑证明和细节,因为这些算法是主流框架都会支持的,在现阶段还像上学那样去学习,投入产出比就太差了。
- 选择ML工具或框架,尝试一下,有个感性认识。
- 尝试用目前的知识去解决项目上的问题,此时不必太苛求结果,只要不太离谱即可。剩下的就是对业务问题的不断深入理解,考虑其他数据源或特征值,调整模型。
- 有时间有精力的前提之下,去做那些知其所以然的事情。
完成第三步,个人认为就已经足以成为ML的伪专家了,这个时候最应该干的事情就是找一个ML的真专家,;)
如果你的应用设计中密码部分还没有考虑Hash + Salt,那么强烈建议阅读此文。特别认同文中这样的一句话:
你密碼的安全度,取決於所有你用同一個密碼的網站裡,安全做最差的網站的安全度。
此外,各位可以试试下面的两个链接,看看自己的密码要花多长时间才能被破解:
这应该算得上是一场针对无人驾驶的压力测试吧,;)
The Future of Java in the Enterprise - InfoQ’s Opinion
按照这篇InfoQ的文章来分,咱们的团队算是激进派:Vert.x、Spock、Geb(基于Selenium)、Groovy、Grails,有意思!
相比Scala,个人更偏好Clojure,一直也想找机会好好用用。加上Scala在某一版本的破坏式演进,说实话,就更没有兴趣了。
Anomaly Detection for Time Series Data with Deep Learning
展示了用RNN分析时序数据的简单例子,因为Java背景,文中工具用的是DL4J。除了RNN,对于其他两类基础的神经网络也有简要介绍,入门算是不错。
文中关于RNN的介绍有一段让人印象深刻:
When fed the complete works of Shakespeare, it can then generate impressively Shakespeare-like output; for example, “Why, Salisbury must find his flesh and thought…”. When Fed a sufficiently large amount of Java code, it will emit something that almost compiles.
看到最后一句话是不是不由得心头一紧,;)?
网友评论