HTML Diff
0 added 0 removed
Original 2026-01-01
Modified 2026-03-10
1 <p>Теги: recursive feature elimination (rfe), исключение признаков</p>
1 <p>Теги: recursive feature elimination (rfe), исключение признаков</p>
2 <p><strong>Recursive Feature Elimination</strong>(RFE) - широко известная и популярная техника, предназначенная для выбора точного количества значимых признаков. Давайте уделим ей немного своего внимания.</p>
2 <p><strong>Recursive Feature Elimination</strong>(RFE) - широко известная и популярная техника, предназначенная для выбора точного количества значимых признаков. Давайте уделим ей немного своего внимания.</p>
3 <p>В одних случаях метод рекурсивного исключения признаков применяется для объяснения числа "наиболее важных" признаков, которые влияют на результаты. Годится метод и для уменьшения слишком большого количества переменных (порядка 200-400), когда оставляют лишь переменные, вносящие хоть какой-либо вклад в модель, причем все остальные переменные исключаются.</p>
3 <p>В одних случаях метод рекурсивного исключения признаков применяется для объяснения числа "наиболее важных" признаков, которые влияют на результаты. Годится метод и для уменьшения слишком большого количества переменных (порядка 200-400), когда оставляют лишь переменные, вносящие хоть какой-либо вклад в модель, причем все остальные переменные исключаются.</p>
4 <p>В RFE используется ранговая система, то есть<strong>ранги</strong>выставляются признакам в наборе данных. Далее эти ранги применяются в целях рекурсивного исключения признаков, что зависит уже как от коллинеарности между ними, так и от непосредственной значимости признаков в модели.</p>
4 <p>В RFE используется ранговая система, то есть<strong>ранги</strong>выставляются признакам в наборе данных. Далее эти ранги применяются в целях рекурсивного исключения признаков, что зависит уже как от коллинеарности между ними, так и от непосредственной значимости признаков в модели.</p>
5 <p>Однако метод используется не только для ранжирования признаков, но и для того, чтобы показать,<strong>важны эти признаки либо нет</strong>, причем даже для заданного количества признаков. Все дело в том, что высока вероятность того, что выбранное количество признаков может быть неоптимальным, тогда как оптимальное количество признаков бывает как больше, так и меньше выбранного количества.</p>
5 <p>Однако метод используется не только для ранжирования признаков, но и для того, чтобы показать,<strong>важны эти признаки либо нет</strong>, причем даже для заданного количества признаков. Все дело в том, что высока вероятность того, что выбранное количество признаков может быть неоптимальным, тогда как оптимальное количество признаков бывает как больше, так и меньше выбранного количества.</p>
6 <p><em>По материалам: https://pub.towardsai.net/feature-selection-in-machine-learning-3b2902852933.</em></p>
6 <p><em>По материалам: https://pub.towardsai.net/feature-selection-in-machine-learning-3b2902852933.</em></p>
7  
7