HTML Diff
0 added 0 removed
Original 2026-01-01
Modified 2026-02-21
1 <p><a>#статьи</a></p>
1 <p><a>#статьи</a></p>
2 <ul><li>27 янв 2021</li>
2 <ul><li>27 янв 2021</li>
3 <li>0</li>
3 <li>0</li>
4 </ul><p>Говорят, что всю математику знают только Бог и Григорий Перельман. Но джуниору на собеседовании вся и не нужна.</p>
4 </ul><p>Говорят, что всю математику знают только Бог и Григорий Перельман. Но джуниору на собеседовании вся и не нужна.</p>
5 <p> vlada_maestro / shutterstock</p>
5 <p> vlada_maestro / shutterstock</p>
6 <p>Кандидат философских наук, специалист по математическому моделированию. Пишет про Data Science, AI и программирование на Python.</p>
6 <p>Кандидат философских наук, специалист по математическому моделированию. Пишет про Data Science, AI и программирование на Python.</p>
7 <p>Возможно, наступит время, когда дата-сайентисту вообще не нужно будет знать математику, а вся работа сведётся к нажатию на кнопку Analyze data. Но пока для начала карьеры в Data Science требуется знать хотя бы базовые математические понятия.</p>
7 <p>Возможно, наступит время, когда дата-сайентисту вообще не нужно будет знать математику, а вся работа сведётся к нажатию на кнопку Analyze data. Но пока для начала карьеры в Data Science требуется знать хотя бы базовые математические понятия.</p>
8 <p>Причина простая: уровень соискателей-джуниоров примерно одинаков. Поэтому из двух кандидатов скорее выберут знакомого с принципами, на которых построены инструменты анализа данных, машинного обучения и глубокого обучения.</p>
8 <p>Причина простая: уровень соискателей-джуниоров примерно одинаков. Поэтому из двух кандидатов скорее выберут знакомого с принципами, на которых построены инструменты анализа данных, машинного обучения и глубокого обучения.</p>
9 <p>Мы отобрали семь фундаментальных тем из вопросов к собеседованиям на вакансию Junior Data Scientist:</p>
9 <p>Мы отобрали семь фундаментальных тем из вопросов к собеседованиям на вакансию Junior Data Scientist:</p>
10 <ul><li>по теории вероятностей,</li>
10 <ul><li>по теории вероятностей,</li>
11 <li>линейной алгебре,</li>
11 <li>линейной алгебре,</li>
12 <li>математическому анализу,</li>
12 <li>математическому анализу,</li>
13 <li>математической статистике.</li>
13 <li>математической статистике.</li>
14 </ul><p>И написали к ним краткие ответы-шпаргалки. Держите!</p>
14 </ul><p>И написали к ним краткие ответы-шпаргалки. Держите!</p>
15 <p><strong>Сложность:<strong>1/3</strong></strong></p>
15 <p><strong>Сложность:<strong>1/3</strong></strong></p>
16 <p>Бросим игральный кубик десять раз. Затем запишем среднее значение всех десяти бросков: сложим все выпавшие очки и поделим на 10.</p>
16 <p>Бросим игральный кубик десять раз. Затем запишем среднее значение всех десяти бросков: сложим все выпавшие очки и поделим на 10.</p>
17 <p>После этого подбросим снова, но теперь уже серией из двадцати бросков, и также запишем среднее. Сумму выпавших очков поделим на 20.</p>
17 <p>После этого подбросим снова, но теперь уже серией из двадцати бросков, и также запишем среднее. Сумму выпавших очков поделим на 20.</p>
18 <p>Закон больших чисел утверждает, что при увеличении количества бросков от серии к серии среднее арифметическое всех выпавших в ней очков будет стремиться к определённому числу, которое называется<a>математическим ожиданием</a>.</p>
18 <p>Закон больших чисел утверждает, что при увеличении количества бросков от серии к серии среднее арифметическое всех выпавших в ней очков будет стремиться к определённому числу, которое называется<a>математическим ожиданием</a>.</p>
19 <p>Для игрального кубика оно равно среднему арифметическому очков на его шести гранях: (1 + 2 + 3 + 4 + 5 + 6) / 6 = 21 / 6 = 3,5.</p>
19 <p>Для игрального кубика оно равно среднему арифметическому очков на его шести гранях: (1 + 2 + 3 + 4 + 5 + 6) / 6 = 21 / 6 = 3,5.</p>
20 <p>Для других случайных величин математическое ожидание будет вычисляться иначе, но суть останется та же: при увеличении количества<em>реальных</em><em></em>попыток случайная величина усредняется. А точнее, стремится к своему<em>теоретически вычисленному</em><em></em>ожидаемому значению. Закон, таким образом, связывает реальность и теорию.</p>
20 <p>Для других случайных величин математическое ожидание будет вычисляться иначе, но суть останется та же: при увеличении количества<em>реальных</em><em></em>попыток случайная величина усредняется. А точнее, стремится к своему<em>теоретически вычисленному</em><em></em>ожидаемому значению. Закон, таким образом, связывает реальность и теорию.</p>
21 <p>Для Data Science этот закон настолько фундаментален, что кажется абсолютно очевидным: чем больше данных, тем точнее предсказание. Впору переименовывать его в "Закон больших данных".</p>
21 <p>Для Data Science этот закон настолько фундаментален, что кажется абсолютно очевидным: чем больше данных, тем точнее предсказание. Впору переименовывать его в "Закон больших данных".</p>
22 <p><strong>Сложность:<strong>1/3</strong></strong></p>
22 <p><strong>Сложность:<strong>1/3</strong></strong></p>
23 <p>Внешне матрица - это прямоугольная таблица из m строк и n столбцов, состоящая, как правило, из чисел. Если в матрице только одна строка или только один столбец, то получается вектор. Вектор - это тоже матрица.</p>
23 <p>Внешне матрица - это прямоугольная таблица из m строк и n столбцов, состоящая, как правило, из чисел. Если в матрице только одна строка или только один столбец, то получается вектор. Вектор - это тоже матрица.</p>
24 <p>Матрицы можно<a>умножать на число</a>, а матрицы одинакового размера - ещё и складывать между собой поэлементно.<em>Умножение</em>матрицы на матрицу сложнее, чем умножение чисел, и лучше всего постигается<a>в упражнениях</a>. Главное - помнить, что строка умножается на столбец и что менять местами две умножаемых матрицы нельзя.</p>
24 <p>Матрицы можно<a>умножать на число</a>, а матрицы одинакового размера - ещё и складывать между собой поэлементно.<em>Умножение</em>матрицы на матрицу сложнее, чем умножение чисел, и лучше всего постигается<a>в упражнениях</a>. Главное - помнить, что строка умножается на столбец и что менять местами две умножаемых матрицы нельзя.</p>
25 Строка матрицы А поэлементно умножается на столбец матрицы B, затем результат складывается в элемент на позиции {номер строки из А, номер столбца из B}.<a>Википедия</a><p>Матрицу правильнее всего понимать как "численный протокол" некоего преобразования. Например, чтобы преобразовать один вектор в другой, нужно умножить его на соответствующую матрицу. Более сложные преобразования тоже задаются или матрицами, или похожими на них объектами, например тензорами (которые сами состоят из матриц).</p>
25 Строка матрицы А поэлементно умножается на столбец матрицы B, затем результат складывается в элемент на позиции {номер строки из А, номер столбца из B}.<a>Википедия</a><p>Матрицу правильнее всего понимать как "численный протокол" некоего преобразования. Например, чтобы преобразовать один вектор в другой, нужно умножить его на соответствующую матрицу. Более сложные преобразования тоже задаются или матрицами, или похожими на них объектами, например тензорами (которые сами состоят из матриц).</p>
26 <p>В Data Science без векторов и матриц никуда. Например,<a>метод главных компонент</a>, который применяют, чтобы избавиться от лишних данных, использует вычисление собственных векторов матриц. А <a>латентно-семантический анализ</a>, необходимый для "понимания" машинами смысла слов, основан на преобразовании матриц и вычислении скалярного произведения векторов.</p>
26 <p>В Data Science без векторов и матриц никуда. Например,<a>метод главных компонент</a>, который применяют, чтобы избавиться от лишних данных, использует вычисление собственных векторов матриц. А <a>латентно-семантический анализ</a>, необходимый для "понимания" машинами смысла слов, основан на преобразовании матриц и вычислении скалярного произведения векторов.</p>
27 <p><strong>Сложность:<strong>2/3</strong></strong></p>
27 <p><strong>Сложность:<strong>2/3</strong></strong></p>
28 <p>Градиент, если простыми словами, это вектор-указатель. Стрелка указывает в направлении наибольшего роста какой-нибудь величины, а длина этого вектора соответствует скорости роста этой величины.</p>
28 <p>Градиент, если простыми словами, это вектор-указатель. Стрелка указывает в направлении наибольшего роста какой-нибудь величины, а длина этого вектора соответствует скорости роста этой величины.</p>
29 Градиент высоты: чем быстрее растёт высота горы, тем длиннее вектор<p>Векторы обычно рассматривают не в одной точке: точками покрывают сразу весь интересующий участок - и на нём уже рисуют градиенты. Если к этому добавить цвет, чтобы подчеркнуть размеры и направленность векторов, то получаются занятные абстрактные композиции.</p>
29 Градиент высоты: чем быстрее растёт высота горы, тем длиннее вектор<p>Векторы обычно рассматривают не в одной точке: точками покрывают сразу весь интересующий участок - и на нём уже рисуют градиенты. Если к этому добавить цвет, чтобы подчеркнуть размеры и направленность векторов, то получаются занятные абстрактные композиции.</p>
30 <p>В deep learning процесс обучения нейросети состоит в том, что мы много-много раз меняем вес каждого нейрона (его авторитет) в зависимости от размера ошибки, которую он передал нейронам следующего слоя. Совокупность величин этих ошибок образует поверхность в многомерном пространстве весов. Задача - найти минимум этой поверхности, то есть "яму" или "ложбину", где ошибки будут наименьшими.</p>
30 <p>В deep learning процесс обучения нейросети состоит в том, что мы много-много раз меняем вес каждого нейрона (его авторитет) в зависимости от размера ошибки, которую он передал нейронам следующего слоя. Совокупность величин этих ошибок образует поверхность в многомерном пространстве весов. Задача - найти минимум этой поверхности, то есть "яму" или "ложбину", где ошибки будут наименьшими.</p>
31 <p>Чтобы найти этот минимум, и нужен градиент. Он, правда, указывает в сторону максимума, но ничто не мешает идти в прямо противоположном направлении - спускаться в направлении<em>антиградиента</em>. Поэтому класс этих методов и называется<strong>градиентным спуском</strong>.</p>
31 <p>Чтобы найти этот минимум, и нужен градиент. Он, правда, указывает в сторону максимума, но ничто не мешает идти в прямо противоположном направлении - спускаться в направлении<em>антиградиента</em>. Поэтому класс этих методов и называется<strong>градиентным спуском</strong>.</p>
32 <p><strong>Сложность:<strong>1/3</strong></strong></p>
32 <p><strong>Сложность:<strong>1/3</strong></strong></p>
33 <p>Эта теорема говорит, насколько нужно изменить ожидания, когда мы узнаём новый факт или наблюдаем новое свидетельство.</p>
33 <p>Эта теорема говорит, насколько нужно изменить ожидания, когда мы узнаём новый факт или наблюдаем новое свидетельство.</p>
34 <p><strong>Условие задачи:</strong>Энтомолог нашёл жука с узором на корпусе и надеется, что это редкий подвид. Надежда его основана на том, что жуки редкого подвида в 98% случаях с узором, а среди обычных жуков узор имеют только 5%. Редкий подвид действительно редок: таких жуков всего 0,1% от всей популяции.</p>
34 <p><strong>Условие задачи:</strong>Энтомолог нашёл жука с узором на корпусе и надеется, что это редкий подвид. Надежда его основана на том, что жуки редкого подвида в 98% случаях с узором, а среди обычных жуков узор имеют только 5%. Редкий подвид действительно редок: таких жуков всего 0,1% от всей популяции.</p>
35 <p><strong>Вопрос:</strong>Какова вероятность, что найденный жук с узором относится к редкому подвиду?</p>
35 <p><strong>Вопрос:</strong>Какова вероятность, что найденный жук с узором относится к редкому подвиду?</p>
36 <p>Теорему Байеса и связанную с ней<em>формулу полной вероятности</em>лучше всего изучать на задачах, подобных этой. Самое сложное, что вас ждёт, - это вычисление дробей и рисование древовидных диаграмм. По <a>этой ссылке</a>можно посмотреть и доказательство формулы, и несколько примеров.</p>
36 <p>Теорему Байеса и связанную с ней<em>формулу полной вероятности</em>лучше всего изучать на задачах, подобных этой. Самое сложное, что вас ждёт, - это вычисление дробей и рисование древовидных диаграмм. По <a>этой ссылке</a>можно посмотреть и доказательство формулы, и несколько примеров.</p>
37 В любой непонятной ситуации рисуй диаграмму полной вероятности. Энтомолог, прости, но жук, скорее всего, обычный.<a>Википедия</a><p>Оценка потенциального заёмщика (кредитный скоринг), определение точности медицинского теста, поиск признаков банковского мошенничества (антифрод) или взлома корпоративной сети - все эти прикладные задачи Data Science используют байесовский подход.</p>
37 В любой непонятной ситуации рисуй диаграмму полной вероятности. Энтомолог, прости, но жук, скорее всего, обычный.<a>Википедия</a><p>Оценка потенциального заёмщика (кредитный скоринг), определение точности медицинского теста, поиск признаков банковского мошенничества (антифрод) или взлома корпоративной сети - все эти прикладные задачи Data Science используют байесовский подход.</p>
38 <p><strong>Сложность:<strong>1/3</strong></strong></p>
38 <p><strong>Сложность:<strong>1/3</strong></strong></p>
39 <p>Распределение - просто закон соответствия одной величины другой. Например, в теории вероятностей, где появился этот термин, это было соответствие между значением случайной величины и вероятностью того, что она примет это значение.</p>
39 <p>Распределение - просто закон соответствия одной величины другой. Например, в теории вероятностей, где появился этот термин, это было соответствие между значением случайной величины и вероятностью того, что она примет это значение.</p>
40 Распределение вероятностей для граней игрального кубика - прямая линия на уровне ⅙, или 16,67% вероятности<p>Но дата-сайентисту распределения требуются не для вероятностей, а чтобы понять, какой именно процесс скрывается за данными. Поэтому ему (то есть вам) нужно запомнить названия, графики и параметры всех<a>основных распределений</a>, благо их не так много.</p>
40 Распределение вероятностей для граней игрального кубика - прямая линия на уровне ⅙, или 16,67% вероятности<p>Но дата-сайентисту распределения требуются не для вероятностей, а чтобы понять, какой именно процесс скрывается за данными. Поэтому ему (то есть вам) нужно запомнить названия, графики и параметры всех<a>основных распределений</a>, благо их не так много.</p>
41 <p>Например, у знаменитой гауссианы, или<a>нормального распределения</a>, есть всего два параметра, которые влияют на форму графика:<strong>μ</strong>(произносится "мю"), двигающий "колокол" вправо-влево, и <strong>σ</strong>(сигма) - определяющий одновременно и ширину, и высоту.</p>
41 <p>Например, у знаменитой гауссианы, или<a>нормального распределения</a>, есть всего два параметра, которые влияют на форму графика:<strong>μ</strong>(произносится "мю"), двигающий "колокол" вправо-влево, и <strong>σ</strong>(сигма) - определяющий одновременно и ширину, и высоту.</p>
42 <p>Так что если график ваших данных внешне напоминает какое-нибудь распределение, то первым делом нужно подогнать параметры в формуле этого распределения так, чтобы его итоговый вид примерно совпадал с вашими данными. Если это удалось, тогда то, что вы сделали с данными, называется<em>регрессией.</em></p>
42 <p>Так что если график ваших данных внешне напоминает какое-нибудь распределение, то первым делом нужно подогнать параметры в формуле этого распределения так, чтобы его итоговый вид примерно совпадал с вашими данными. Если это удалось, тогда то, что вы сделали с данными, называется<em>регрессией.</em></p>
43 <p><strong>Сложность:<strong>1/3</strong></strong></p>
43 <p><strong>Сложность:<strong>1/3</strong></strong></p>
44 <p>Регрессия, простыми словами, это закон, определяющий соотношения между средними значениями каких-либо величин. Например, средний рост сыновей линейно зависит от среднего роста отцов: чем выше средний рост отцов, тем выше и средний рост сыновей.</p>
44 <p>Регрессия, простыми словами, это закон, определяющий соотношения между средними значениями каких-либо величин. Например, средний рост сыновей линейно зависит от среднего роста отцов: чем выше средний рост отцов, тем выше и средний рост сыновей.</p>
45 <p>В Data Science регрессия возникает в задаче исследования реальных данных, которые визуально часто выглядят как группы точек на координатной плоскости.</p>
45 <p>В Data Science регрессия возникает в задаче исследования реальных данных, которые визуально часто выглядят как группы точек на координатной плоскости.</p>
46 <p>Если через эти точки можно провести линию, которая соответствует их общему тренду и не слишком далека от каждой из них, говорят, что формула, задающая эту линию,<em>аппроксимирует (приближает</em>) данные.</p>
46 <p>Если через эти точки можно провести линию, которая соответствует их общему тренду и не слишком далека от каждой из них, говорят, что формула, задающая эту линию,<em>аппроксимирует (приближает</em>) данные.</p>
47 <p>Иными словами, в задачах регрессии мы заменяем (аппроксимируем) реальные значения средними и исследуем соответствие уже между ними. Это не только проще для вычислений, но и даёт основания для прогноза и предсказаний. А дата-сайентиста хлебом не корми - дай что-нибудь предсказать.</p>
47 <p>Иными словами, в задачах регрессии мы заменяем (аппроксимируем) реальные значения средними и исследуем соответствие уже между ними. Это не только проще для вычислений, но и даёт основания для прогноза и предсказаний. А дата-сайентиста хлебом не корми - дай что-нибудь предсказать.</p>
48 <p><strong>Сложность:<strong>2/3</strong></strong></p>
48 <p><strong>Сложность:<strong>2/3</strong></strong></p>
49 <p>Статистически значимая величина - это "скорее всего, неслучайная" или "маловероятно, что случайная" величина. Мера случайности и неслучайности определяется по-разному, но всегда заранее.</p>
49 <p>Статистически значимая величина - это "скорее всего, неслучайная" или "маловероятно, что случайная" величина. Мера случайности и неслучайности определяется по-разному, но всегда заранее.</p>
50 <p>Статистическая значимость используется при проверке<em>статистических гипотез</em>. Например, мы предположили, что<a>зелюки в основном хрюкочут</a>. Это будет нашей основной статистической гипотезой. Альтернативной гипотезой будем считать, что зелюки в основном не хрюкочут, а пыряются. И договоримся, что величина статистической значимости будет, например, 5%.</p>
50 <p>Статистическая значимость используется при проверке<em>статистических гипотез</em>. Например, мы предположили, что<a>зелюки в основном хрюкочут</a>. Это будет нашей основной статистической гипотезой. Альтернативной гипотезой будем считать, что зелюки в основном не хрюкочут, а пыряются. И договоримся, что величина статистической значимости будет, например, 5%.</p>
51 <p>Возьмём результаты наблюдения за зелюками. Если хрюкочущих зелюков в них окажется 95% или больше, будем говорить, что основная гипотеза прошла статистическую проверку при уровне значимости<strong>α</strong>(альфа) = 0,05. А количество альтернативных (пыряющихся) зелюков не оказалось статистически значимой величиной.</p>
51 <p>Возьмём результаты наблюдения за зелюками. Если хрюкочущих зелюков в них окажется 95% или больше, будем говорить, что основная гипотеза прошла статистическую проверку при уровне значимости<strong>α</strong>(альфа) = 0,05. А количество альтернативных (пыряющихся) зелюков не оказалось статистически значимой величиной.</p>
52 <p>Другими словами, уровень<strong>α</strong> - это<em>вероятность отклонить</em>основную гипотезу. Если гипотеза истинна, то есть в реальности зелюки действительно в основном хрюкочут, это ещё и вероятность совершить<a>ошибку первого рода</a> - ошибочное отвержение, или ложную тревогу. Если гипотеза неверна и зелюки таки больше пыряются, чем хрюкочут, то величина<strong>α</strong> - это вероятность<em>не отвергнуть ложную гипотезу</em>и допустить<a>ошибку второго рода</a>, которую называют ошибочным принятием или пропуском события.</p>
52 <p>Другими словами, уровень<strong>α</strong> - это<em>вероятность отклонить</em>основную гипотезу. Если гипотеза истинна, то есть в реальности зелюки действительно в основном хрюкочут, это ещё и вероятность совершить<a>ошибку первого рода</a> - ошибочное отвержение, или ложную тревогу. Если гипотеза неверна и зелюки таки больше пыряются, чем хрюкочут, то величина<strong>α</strong> - это вероятность<em>не отвергнуть ложную гипотезу</em>и допустить<a>ошибку второго рода</a>, которую называют ошибочным принятием или пропуском события.</p>
53 <p>"Математику уже затем учить надо, что она повышает шансы на оффер", - гласит старинная поговорка дата-сайентистов.</p>
53 <p>"Математику уже затем учить надо, что она повышает шансы на оффер", - гласит старинная поговорка дата-сайентистов.</p>
54 <p>По неведомым науке причинам математика удивительно эффективна на собеседованиях: придаёт уверенности словам, располагает к вам интервьюеров и повышает ваш авторитет в глазах людей, совершенно с ней незнакомых. Есть даже подозрения, что существует мировой заговор математиков, которые: а) проникли везде и всюду; б) поддерживают друг друга всегда и во всём.</p>
54 <p>По неведомым науке причинам математика удивительно эффективна на собеседованиях: придаёт уверенности словам, располагает к вам интервьюеров и повышает ваш авторитет в глазах людей, совершенно с ней незнакомых. Есть даже подозрения, что существует мировой заговор математиков, которые: а) проникли везде и всюду; б) поддерживают друг друга всегда и во всём.</p>
55 <a><b>Бесплатный курс по Python ➞</b>Мини-курс для новичков и для опытных кодеров. 4 крутых проекта в портфолио, живое общение со спикером. Кликните и узнайте, чему можно научиться на курсе. Смотреть программу</a>
55 <a><b>Бесплатный курс по Python ➞</b>Мини-курс для новичков и для опытных кодеров. 4 крутых проекта в портфолио, живое общение со спикером. Кликните и узнайте, чему можно научиться на курсе. Смотреть программу</a>