会微积分的喵

我走得很慢,但我从不后退

写在前面

本篇博客为博主在使用python3中遇到的问题以及需要记录的东西,新手在使用中有较多的问题,在这做个记录,方便查询和回顾,持续更新中…

阅读全文 »

难度:Medium

题目描述

给出一个区间的集合,请合并所有重叠的区间。

示例

示例1

1
2
3
输入: [[1,3],[2,6],[8,10],[15,18]]
输出: [[1,6],[8,10],[15,18]]
解释: 区间 [1,3] 和 [2,6] 重叠, 将它们合并为 [1,6].

阅读全文 »

写在前面

深度学习算法在很多情况下都涉及优化。

寻找神经网络上的一组参数$\theta$,它能显著地降低代价函数$J(\theta)$,该代价函数通常包括整个训练集上的性能评估和额外的正则化项。

机器学习是一个高度依赖经验的过程,伴随着大量迭代的过程,你需要训练诸多模型,才能找到合适的那一个,所以,优化算法能够帮助你快速训练模型。

阅读全文 »

写在前面

EM算法简单来说就是,猜(E-step),反思(M-step),重复。
你知道一些东西(观测到的数据),你不知道一些东西(观测不到的),你就根据一些假设(parameter)先猜(E-step),把那些不知道的东西都猜出来,假装你全都知道了;然后有了这些猜出来的数据,你反思一些,更新一下你的假设(parameter),让你观测到的数据更加可能(Maximize likehood; M-step),然后再猜,再反思,最后,你就得到一个可以解释整个数据的假设了。

阅读全文 »

写在前面

题目来自于阿里2018编程测验中的算法题,时间是30分钟。其实要在30分钟内做出这道题,还是有一定难度的,由于有整体有几道算法题,这里记录下自己见到的题目。

阅读全文 »

写在前面

GBDT是一个系列算法,具有很好的性能,可以用于回归、分类、排序的机器学习任务,也是机器学习面试时常考的一个知识点,在这写下个人的一些理解,也当做个笔记。

GBDT分为两部分,GB: Gradient Boosting和DT: Decision tree。

GBDT算法是属于Boosting算法族的一部分,可将弱学习器提升为强学习器的算法,属于集成学习的范畴。

阅读全文 »

写在前面

之前在牛客网上投递了百度作业帮的数据挖掘/机器学习算法工程师岗位,今天下午进行了视频面试,用的是牛客网的系统,牛客网的系统还是不错的,点赞。面试之前在牛客网上搜过面经,我们学校的一个同学面过,说上来就是编程题,好吧,就是这样,可能我俩是同一个面试官吧,面试官还是我们学校的,-_-

阅读全文 »
0%