0 added
0 removed
Original
2026-01-01
Modified
2026-03-10
1
<p>Теги: искусственный интеллект, ии, математика, теория вероятности</p>
1
<p>Теги: искусственный интеллект, ии, математика, теория вероятности</p>
2
<p>Когда речь идёт об ИИ, хаотичность и неопределённость проявляются во многих формах. И<strong>теория вероятностей предоставляет нам методы для работы с неопределённостью</strong>, а также используется для анализа частоты возникновения событий.</p>
2
<p>Когда речь идёт об ИИ, хаотичность и неопределённость проявляются во многих формах. И<strong>теория вероятностей предоставляет нам методы для работы с неопределённостью</strong>, а также используется для анализа частоты возникновения событий.</p>
3
<p>Вероятность - это возможность осуществления чего-либо. Можно сказать, что это число от 0 до 1, причём 0 указывает на невозможность возникновения события, а единица указывает на достоверность возникновения этого события. Таким образом, вероятность возникновения события A можно обозначить P(A) либо p(A). И если P(A) = 1, событие A произойдёт точно, а если P(A) = 0, событие точно не произойдёт. В итоге мы можем вывести<strong>дополнение события</strong>P(Ac). Оно будет иметь значение P(Ac) = 1 - P(A) и обозначать вероятность того, что событие A не произойдёт никогда.</p>
3
<p>Вероятность - это возможность осуществления чего-либо. Можно сказать, что это число от 0 до 1, причём 0 указывает на невозможность возникновения события, а единица указывает на достоверность возникновения этого события. Таким образом, вероятность возникновения события A можно обозначить P(A) либо p(A). И если P(A) = 1, событие A произойдёт точно, а если P(A) = 0, событие точно не произойдёт. В итоге мы можем вывести<strong>дополнение события</strong>P(Ac). Оно будет иметь значение P(Ac) = 1 - P(A) и обозначать вероятность того, что событие A не произойдёт никогда.</p>
4
<p>Теперь поговорим о вероятностях нескольких событий и взаимодействиях между этими событиями. Для этого нам пригодится термин<strong>совместная вероятность</strong>, представляющая собой вероятность того, что оба события произойдут. Если события независимы, то совместную вероятность мы можем определить следующим образом:</p>
4
<p>Теперь поговорим о вероятностях нескольких событий и взаимодействиях между этими событиями. Для этого нам пригодится термин<strong>совместная вероятность</strong>, представляющая собой вероятность того, что оба события произойдут. Если события независимы, то совместную вероятность мы можем определить следующим образом:</p>
5
<p>Но если события взаимоисключают друг друга, наша формула усложнится:</p>
5
<p>Но если события взаимоисключают друг друга, наша формула усложнится:</p>
6
<p>Теперь приведём ряд терминов, используемых во время вычисления вероятности. Какая будет вероятность события A, если произошло событие B? Чтобы это узнать, вычислим<strong>условную вероятность</strong>.</p>
6
<p>Теперь приведём ряд терминов, используемых во время вычисления вероятности. Какая будет вероятность события A, если произошло событие B? Чтобы это узнать, вычислим<strong>условную вероятность</strong>.</p>
7
<p>Интересно, что совместная вероятность по нескольким случайным переменным можно разделить на условные распределения по одной переменной - это преобразование называют<strong>правилом цепи</strong>:</p>
7
<p>Интересно, что совместная вероятность по нескольким случайным переменным можно разделить на условные распределения по одной переменной - это преобразование называют<strong>правилом цепи</strong>:</p>
8
<p>Ещё следует упомянуть<strong>правило Байеса</strong>, описывающее вероятность события, базируясь на знании условий либо других событий, связанных с главным событием:</p>
8
<p>Ещё следует упомянуть<strong>правило Байеса</strong>, описывающее вероятность события, базируясь на знании условий либо других событий, связанных с главным событием:</p>
9
<p>Также обратите внимание на его упорядоченную версию:</p>
9
<p>Также обратите внимание на его упорядоченную версию:</p>
10
<p>Здесь P(A) - априорная вероятность гипотезы A, а P(A|B) - вероятность гипотезы A в случае наступления события B (апостериорная вероятность). Что касается P(B|A), то это вероятность наступления события B в случае истинности гипотезы A. И, если мы говорим о машинном обучении, искусственном интеллекте либо глубоком обучении, мы, как правило, применяем правило Байеса при обновлении параметров нашей модели.</p>
10
<p>Здесь P(A) - априорная вероятность гипотезы A, а P(A|B) - вероятность гипотезы A в случае наступления события B (апостериорная вероятность). Что касается P(B|A), то это вероятность наступления события B в случае истинности гипотезы A. И, если мы говорим о машинном обучении, искусственном интеллекте либо глубоком обучении, мы, как правило, применяем правило Байеса при обновлении параметров нашей модели.</p>
11
<p><em>Источник: "<a>Mathematics for Artificial Intelligence - Probability</a>".</em></p>
11
<p><em>Источник: "<a>Mathematics for Artificial Intelligence - Probability</a>".</em></p>
12
12