0 added
0 removed
Original
2026-01-01
Modified
2026-03-10
1
<p>Теги: recursive feature elimination (rfe), исключение признаков</p>
1
<p>Теги: recursive feature elimination (rfe), исключение признаков</p>
2
<p><strong>Recursive Feature Elimination</strong>(RFE) - широко известная и популярная техника, предназначенная для выбора точного количества значимых признаков. Давайте уделим ей немного своего внимания.</p>
2
<p><strong>Recursive Feature Elimination</strong>(RFE) - широко известная и популярная техника, предназначенная для выбора точного количества значимых признаков. Давайте уделим ей немного своего внимания.</p>
3
<p>В одних случаях метод рекурсивного исключения признаков применяется для объяснения числа "наиболее важных" признаков, которые влияют на результаты. Годится метод и для уменьшения слишком большого количества переменных (порядка 200-400), когда оставляют лишь переменные, вносящие хоть какой-либо вклад в модель, причем все остальные переменные исключаются.</p>
3
<p>В одних случаях метод рекурсивного исключения признаков применяется для объяснения числа "наиболее важных" признаков, которые влияют на результаты. Годится метод и для уменьшения слишком большого количества переменных (порядка 200-400), когда оставляют лишь переменные, вносящие хоть какой-либо вклад в модель, причем все остальные переменные исключаются.</p>
4
<p>В RFE используется ранговая система, то есть<strong>ранги</strong>выставляются признакам в наборе данных. Далее эти ранги применяются в целях рекурсивного исключения признаков, что зависит уже как от коллинеарности между ними, так и от непосредственной значимости признаков в модели.</p>
4
<p>В RFE используется ранговая система, то есть<strong>ранги</strong>выставляются признакам в наборе данных. Далее эти ранги применяются в целях рекурсивного исключения признаков, что зависит уже как от коллинеарности между ними, так и от непосредственной значимости признаков в модели.</p>
5
<p>Однако метод используется не только для ранжирования признаков, но и для того, чтобы показать,<strong>важны эти признаки либо нет</strong>, причем даже для заданного количества признаков. Все дело в том, что высока вероятность того, что выбранное количество признаков может быть неоптимальным, тогда как оптимальное количество признаков бывает как больше, так и меньше выбранного количества.</p>
5
<p>Однако метод используется не только для ранжирования признаков, но и для того, чтобы показать,<strong>важны эти признаки либо нет</strong>, причем даже для заданного количества признаков. Все дело в том, что высока вероятность того, что выбранное количество признаков может быть неоптимальным, тогда как оптимальное количество признаков бывает как больше, так и меньше выбранного количества.</p>
6
<p><em>По материалам: https://pub.towardsai.net/feature-selection-in-machine-learning-3b2902852933.</em></p>
6
<p><em>По материалам: https://pub.towardsai.net/feature-selection-in-machine-learning-3b2902852933.</em></p>
7
7