From f1812c630128571e4d07a34295360db5355aa5a1 Mon Sep 17 00:00:00 2001 From: esokolov Date: Thu, 1 Sep 2016 23:44:32 +0300 Subject: [PATCH] new year --- README-15-16.md | 81 +++++++++++++++++++++++++++++++++++++++++++ README.md | 92 ++++++++++++++++--------------------------------- 2 files changed, 111 insertions(+), 62 deletions(-) create mode 100644 README-15-16.md diff --git a/README-15-16.md b/README-15-16.md new file mode 100644 index 0000000..02345cd --- /dev/null +++ b/README-15-16.md @@ -0,0 +1,81 @@ +# Семинары по машинному обучению, ВМК МГУ +Конспекты, код и прочие материалы к семинарам по машинному обучению, проводимым на ВМК МГУ. + +[Страница курса на machinelearning.ru](http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28семинары%2C_ВМК_МГУ%29) + +[Группа Вконтакте](https://vk.com/cmcml2015) + +На семинары можно оставить отзыв: [[анонимно без регистрации и смс](https://docs.google.com/forms/d/1j8zMReMtl-BCeAVISxx_v42_y8GAVeolofFuAHQjHBc/viewform)] + +## Дополнительные материалы + +#### Семинар 3: LSH, kNN, векторизация +* Статьи на Хабре про рандомизированные алгоритмы: +[[Bloom filters](http://habrahabr.ru/post/112069/)] +[[MinHash](http://habrahabr.ru/post/115147/)] +[[HyperLogLog](http://habrahabr.ru/post/119852/)] + +* [Лекция по понижению размерности (в том числе learning to hash)](https://github.com/esokolov/ml-course-msu/blob/master/ML15/misc/lsml15_fivt_reduction.pdf) + +* [How to Vectorize Data Aggregation with pandas and NumPy](http://blog.datascience.com/straightening-loops-how-to-vectorize-data-aggregation-with-pandas-and-numpy/) + +#### Семинар 4: Решающие деревья +* [Глава про решающие деревья из "Data Mining and Knowledge Discovery Handbook"](http://www.ise.bgu.ac.il/faculty/liorr/hbchap9.pdf) (очень хорошо описано разнообразие методов построения деревьев) + +* [Рассказ про классы P и NP](http://cs.stackexchange.com/questions/9556/what-is-the-definition-of-p-np-np-complete-and-np-hard) + +#### Семинар 5: Метрики качества +* [An introduction to ROC analysis](https://ccrma.stanford.edu/workshops/mir2009/references/ROCintro.pdf) + +* [What does AUC stand for and what is it?](http://stats.stackexchange.com/questions/132777/what-does-auc-stand-for-and-what-is-it) + +#### Семинар 7: Градиентные методы оптимизации +* [Matrix Cookbook](http://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf) + +#### Семинар 8: Vowpal Wabbit + +* [Vowpal Wabbit Tutorial](https://github.com/JohnLangford/vowpal_wabbit/wiki/Tutorial) + +* [Vowpal Wabbit tutorial for the Uninitiated](http://zinkov.com/posts/2013-08-13-vowpal-tutorial/) + +* [VW on FastML](http://fastml.com/blog/categories/vw/) + +## Полезные ссылки + +### Tech + +[Как анализировать данные на AWS](https://github.com/emilkayumov/aws-jupyter) + +### Math + +[Linear Algebra Review and Reference](http://cs229.stanford.edu/section/cs229-linalg.pdf) + +[Review of Probability Theory](http://cs229.stanford.edu/section/cs229-prob.pdf) + +[Convex Optimization Overview](http://cs229.stanford.edu/section/cs229-cvxopt.pdf) + +### Python + +[Scientific Python Lectures (охватывает numpy, scipy, matplotlib и другие библиотеки)](https://github.com/jrjohansson/scientific-python-lectures) + +[A Crash Course in Python for Scientists](http://nbviewer.ipython.org/gist/rpmuller/5920182) + +[An example machine learning notebook (знакомство с библиотеками на примере задачи Iris)](http://nbviewer.ipython.org/github/rhiever/Data-Analysis-and-Machine-Learning-Projects/blob/master/example-data-science-notebook/Example%20Machine%20Learning%20Notebook.ipynb) + +### NumPy + +[100 numpy excercies](http://www.labri.fr/perso/nrougier/teaching/numpy.100/) + +### Pandas + +[Things in Pandas](http://nbviewer.ipython.org/github/rasbt/python_reference/blob/master/tutorials/things_in_pandas.ipynb) + +Pandas Tutorial from SciPy 2015 conference: [[video](https://youtu.be/0CFFTJUZ2dc?list=PLYx7XA2nY5Gcpabmu61kKcToLz0FapmHu)] [[code](https://github.com/jonathanrocher/pandas_tutorial)] + + + +### IPython/Jupyter Notebooks + +[Jupyer Notebook User's Guide](http://jupyter.cs.brynmawr.edu/hub/dblank/public/Jupyter%20Notebook%20Users%20Manual.ipynb) + +[A gallery of interesting IPython Notebooks](https://github.com/ipython/ipython/wiki/A-gallery-of-interesting-IPython-Notebooks) diff --git a/README.md b/README.md index 02345cd..6331df7 100644 --- a/README.md +++ b/README.md @@ -1,81 +1,49 @@ # Семинары по машинному обучению, ВМК МГУ -Конспекты, код и прочие материалы к семинарам по машинному обучению, проводимым на ВМК МГУ. - -[Страница курса на machinelearning.ru](http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28семинары%2C_ВМК_МГУ%29) - -[Группа Вконтакте](https://vk.com/cmcml2015) - -На семинары можно оставить отзыв: [[анонимно без регистрации и смс](https://docs.google.com/forms/d/1j8zMReMtl-BCeAVISxx_v42_y8GAVeolofFuAHQjHBc/viewform)] - -## Дополнительные материалы - -#### Семинар 3: LSH, kNN, векторизация -* Статьи на Хабре про рандомизированные алгоритмы: -[[Bloom filters](http://habrahabr.ru/post/112069/)] -[[MinHash](http://habrahabr.ru/post/115147/)] -[[HyperLogLog](http://habrahabr.ru/post/119852/)] - -* [Лекция по понижению размерности (в том числе learning to hash)](https://github.com/esokolov/ml-course-msu/blob/master/ML15/misc/lsml15_fivt_reduction.pdf) - -* [How to Vectorize Data Aggregation with pandas and NumPy](http://blog.datascience.com/straightening-loops-how-to-vectorize-data-aggregation-with-pandas-and-numpy/) - -#### Семинар 4: Решающие деревья -* [Глава про решающие деревья из "Data Mining and Knowledge Discovery Handbook"](http://www.ise.bgu.ac.il/faculty/liorr/hbchap9.pdf) (очень хорошо описано разнообразие методов построения деревьев) - -* [Рассказ про классы P и NP](http://cs.stackexchange.com/questions/9556/what-is-the-definition-of-p-np-np-complete-and-np-hard) - -#### Семинар 5: Метрики качества -* [An introduction to ROC analysis](https://ccrma.stanford.edu/workshops/mir2009/references/ROCintro.pdf) -* [What does AUC stand for and what is it?](http://stats.stackexchange.com/questions/132777/what-does-auc-stand-for-and-what-is-it) +![alt text](http://www.machinelearning.ru/wiki/images/2/28/ML_surfaces.png "Машинное обучение") -#### Семинар 7: Градиентные методы оптимизации -* [Matrix Cookbook](http://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf) - -#### Семинар 8: Vowpal Wabbit - -* [Vowpal Wabbit Tutorial](https://github.com/JohnLangford/vowpal_wabbit/wiki/Tutorial) - -* [Vowpal Wabbit tutorial for the Uninitiated](http://zinkov.com/posts/2013-08-13-vowpal-tutorial/) - -* [VW on FastML](http://fastml.com/blog/categories/vw/) - -## Полезные ссылки - -### Tech - -[Как анализировать данные на AWS](https://github.com/emilkayumov/aws-jupyter) - -### Math - -[Linear Algebra Review and Reference](http://cs229.stanford.edu/section/cs229-linalg.pdf) +Конспекты, код и прочие материалы к семинарам по машинному обучению, проводимым на ВМК МГУ. -[Review of Probability Theory](http://cs229.stanford.edu/section/cs229-prob.pdf) +Почта для заданий: ml.cmc.msu@gmail.com -[Convex Optimization Overview](http://cs229.stanford.edu/section/cs229-cvxopt.pdf) +[Страница курса на machinelearning.ru](http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28семинары%2C_ВМК_МГУ%29) -### Python +[Группа Вконтакте](https://vk.com/cmcml2016) -[Scientific Python Lectures (охватывает numpy, scipy, matplotlib и другие библиотеки)](https://github.com/jrjohansson/scientific-python-lectures) +[Оценки за курс](https://) -[A Crash Course in Python for Scientists](http://nbviewer.ipython.org/gist/rpmuller/5920182) +На семинары можно оставить отзыв: [[анонимно без регистрации и смс](https://docs.google.com/forms/d/1j8zMReMtl-BCeAVISxx_v42_y8GAVeolofFuAHQjHBc/viewform)] -[An example machine learning notebook (знакомство с библиотеками на примере задачи Iris)](http://nbviewer.ipython.org/github/rhiever/Data-Analysis-and-Machine-Learning-Projects/blob/master/example-data-science-notebook/Example%20Machine%20Learning%20Notebook.ipynb) +## Правила выставления оценок -### NumPy +**Итоговая контрольная работа:** -[100 numpy excercies](http://www.labri.fr/perso/nrougier/teaching/numpy.100/) +1. На последней лекции будет проведена контрольная работа, которая затронет все темы, изученные в течение семестра. +2. Контрольная оценивается по двухбалльной шкале (зачет/незачет), незачет влечет за собой недопуск к экзамену. +3. Студент, не получивший допуск, переписывает на экзамене контрольную. В случае успеха он сдает экзамен на первой пересдаче. В случае незачета он снова переписывает контрольную на первой пересдаче, и так далее. -### Pandas +**Семинары:** -[Things in Pandas](http://nbviewer.ipython.org/github/rasbt/python_reference/blob/master/tutorials/things_in_pandas.ipynb) +1. На семинарах по каждой пройденной теме будут проводиться проверочные работы. Каждая проверочная оценивается по пятибалльной шкале. В зависимости от оценки за проверочную, студент освобождается от части или от всех задач по этой теме на итоговой контрольной работе. +2. На семинарах будут выдаваться практические задания, которые будут оцениваться по десятибалльной шкале. +3. В течение семестра будут проводиться конкурсы по анализу данных. Каждый конкурс оценивается по 15-балльной шкале. За первое, второе и третье место выставляется 15, 13 и 11 баллов соответственно при условии, что студенты выступят с докладом о своем решении (в противном случае они получают 10 баллов). За места с четвертого и по самое последнее, превосходящее бейзлайн, выставляется от 10 до 1 баллов по равномерной сетке. Если все присланные группой решения будут тривиальными, то преподаватель имеет право снизить максимальную оценку до 10 или до 5 баллов. +4. Оценка за работу в семестре равна сумме оценок за проверочные работы, практические задания и конкурсы. +5. Если оценка за работу в семестре не меньше 100% от максимальной оценки за проверочные и лабораторные работы, то студент освобождается от написания итоговой контрольной и получает допуск к экзамену автоматом. +6. Если оценка за работу в семестре не меньше 80% от максимальной оценки за проверочные и лабораторные работы и конкурсы, то студент получает +1 балл на экзамене (при условии получения положительной оценки). +7. В конце семестра разрешается переписать все проверочные, пропущенные по уважительной причине. -Pandas Tutorial from SciPy 2015 conference: [[video](https://youtu.be/0CFFTJUZ2dc?list=PLYx7XA2nY5Gcpabmu61kKcToLz0FapmHu)] [[code](https://github.com/jonathanrocher/pandas_tutorial)] +## Занятия +| Дата | Номер | Тема | Материалы | ДЗ | +| :---: | :---: | --- | --- | --- | +| 2 сентября | Семинар 1 | +Вводное занятие: +* Основные термины в машинном обучении +* Этапы решения задачи анализа данных +| | | +## Практические задания -### IPython/Jupyter Notebooks +## Соревнования -[Jupyer Notebook User's Guide](http://jupyter.cs.brynmawr.edu/hub/dblank/public/Jupyter%20Notebook%20Users%20Manual.ipynb) -[A gallery of interesting IPython Notebooks](https://github.com/ipython/ipython/wiki/A-gallery-of-interesting-IPython-Notebooks)