Почему в EdTech-сообществе пора начать говорить об этике
2026-02-21 13:38 Diff

#Интервью

  • 15 фев 2024
  • 0

Несколько идей насчёт очень большой, сложной, но важной темы.

Фото: djurga для Skillbox Media

Шеф-редактор направления «Образование» Skillbox Media.

Руководитель программ педагогических практик Skillbox. Преподаватель курсов по педагогическому дизайну в МПГУ и МВШСЭН («Шанинка»).

Кирилл Прудников в декабре вскользь поделился мнением о том, что в связи с происходящим на наших глазах стремительным развитием искусственного интеллекта представителям EdTech-индустрии пора серьёзно поднимать вопросы этики. Мы попросили его в режиме живой рефлексии подробнее порассуждать на эту тему — и вот что услышали.

Мы работаем с образованием, а образование формирует ценностный ряд. Вопросы этики — очень практические. Они о том, как мы используем данные в аналитике, искусственный интеллект и вообще технологии в обучении для того, чтобы изменять деятельность людей. Ведь обучение — это изменение деятельности через опыт. То, как мы с помощью ставших доступными сейчас технологий меняем поведение человека, очень важно. Мне кажется, бизнес должен задумываться об этих вопросах. В том числе о том, какие ценности мы формируем у учащихся.

Технологии — это масштабирование или удешевление процесса обучения. Благодаря технологиям всё больше людей получают доступ к обучению. Но вера в то, что каждое новое технологическое улучшение неизбежно делает мир лучше, вера в прогресс закончилась ещё до наступления постмодернизма. Нужно аккуратнее относиться к тому, что мы применяем.

На первый взгляд кажется, что мы в EdTech обучаем только прикладным навыкам. Но помимо этого в процессе добавляются ещё некие ценности. Я считаю, что мы должны учитывать это при проектировании образовательных программ. И что нам внутри EdTech-сообщества пора начать думать и обсуждать, какие ценности мы взращиваем и все ли из них этичны.

Нужно как-то усиливать либо менять образовательный продукт, если мы понимаем, что какие-то из формируемых ценностей сомнительны. Через онлайн-курсы в какой-то момент пройдут миллионы людей. У них сформируются профессиональные практические компетенции, но кроме этого — что-то ещё, какие-то качества. Что это будет? Найти ответ на этот вопрос очень важно, так как эти качества будут влиять на нас и общество в целом. Ведь мы будем жить среди этих людей, работать с ними.

Моя гипотеза: люди, которые учились в асинхронном формате и сдали, условно, 60 «домашек», чтобы получить профессию, очень трудолюбивы. То есть через эту систему обучения как минимум воспитывается ценность позитивного, продуктивного труда. Мы, может быть, о ней не думаем, но она формируется.

Наверное, благодаря специфике асинхронного онлайн-обучения сформируются самостоятельность и самоорганизованность. А ещё, вероятно, автономность — мы же общаемся во время обучения удалённо, в основном через чат. Вот автономность — это хорошо или плохо? Не снижает ли она эмоциональный интеллект, эмпатичность? Не ведёт ли к потере чувствительности, когда слова и действия, которые человек не позволил бы себе при личной встрече, он вполне может выразить онлайн?

Многие образовательные проекты стремятся неизбежно довести учащегося до цели обучения, повысить процент доходимости на курсе. Потому что мы предоставляем образовательную услугу и считаем её качественной, если человек достиг карьерных изменений, ради которых пошёл учиться, — например, сменил профессию или получил навыки для развития на текущем месте, повысил свой доход.

Имея очень много данных о пользовательском поведении, анализируя их, при развитии технологий мы получаем возможность вычислять триггеры, которые на ранних этапах могут подсказывать нам, что какой-то пользователь теряет вовлечённость и высока вероятность, что он бросит обучение.

Допустим, в этом случае можно предложить ему такие материалы и задания, которые его удержат, поднимут мотивацию. Вопрос: кто должен принимать решение, нужно ли это делать, то есть надо ли упорно доводить пользователя до конца? Сам пользователь? Провайдер обучения? Или некий искусственный интеллект? А вдруг у человека в процессе обучения интерес и цель поменяются?

Наверное, должна быть какая-то регуляция в начале обучения не только относительно того, каких результатов пользователь хочет достичь, но и относительно того, можем ли мы его на этом намеченном треке удерживать.

Хорошо бы, чтобы пользователь мог ещё на старте сказать, условно: «Ребята, несмотря ни на что, доводите меня до конца обучения, даже если я очень ленюсь». Или наоборот: «Не надо меня никуда вести, я хочу отключить все искусственные алгоритмы и учиться самостоятельно, без них». Либо какой-то средний вариант может быть.

Бывает такой парадокс: та цель, которую человек перед собой ставит и достигает, делает его несчастным. Стоит ли тогда нам через образовательный продукт человека доводить до этой цели? Например, цель — повысить свой доход благодаря обучению. Но ведь у человека есть и другие потребности, кроме денег. Можно начать зарабатывать больше, но почувствовать себя в новой профессии глубоко несчастным.

Приведу такую метафору. Представьте, что мы учим человека копать колодец. В процессе он находит старинную монетку, та его очень заинтересовывает, и он бросает копать колодец и уходит изучать археологию. С точки зрения обязательного достижения первоначальной цели это нежелательное последствие, ведь мы не доучили его копать колодец.

Мы, как проектировщики обучения, потерпели неудачу. Поэтому в этой концепции мы должны отвлечь человека от монетки и археологии, вернуть к колодцу. Хотя на самом деле человек из-за этого что-то важное для него упустит — новое знание, может быть, даже истинное призвание.

Фото: djurga для Skillbox Media

Какая может быть реальная ситуация в контексте онлайн-обучения на курсах? Допустим, пользователь хочет стать методистом, но, изучая во время очередного занятия путь студента в программе, заинтересовывается продуктовым подходом, метриками и хочет стать уже не методистом, а продуктологом.

Да, конечно, если студент прямо изъявляет такое желание, мы ему даём возможность поменять курс. Но дадут ли ему технологии возможность увлечься чем-то иным, свернуть с дистанции, если они неумолимо ведут его к определённой цели? Я говорю о таком будущем в стиле «Чёрного зеркала», когда поведение пользователя контролируют алгоритмы машины, и в этом процессе нет человека, который скажет, что да, конечно, можно заменить курс.

С развитием технологий обучение становится более тоннельным, потому что мы не даём пользователю пойти каким-то параллельным образовательным треком.

Все увлекаются продуктовым подходом: вот, давайте сделаем исследования и будем знать про пользователей всё, сможем точнее откалибровать образовательный продукт под их запросы. Но мне кажется, что у продуктового подхода есть определённые ограничения.

Одной из основных продуктовых метрик является время, проведённое на платформе, в LMS: чем больше, тем лучше, тем пользователь вовлечённее. Представим, что ради этого на платформе всё откалибровано под его интересы. Что произойдёт? У нас есть примеры с умными лентами социальных сетей, которые настроены таким образом, чтобы показывать нам контент, похожий на тот, который нам уже нравился или который нравится людям, похожим на нас.

Так же может случиться и с образованием: если предлагать пользователям только тот контент, который, скорее всего, вызовет у них позитивную реакцию, то они не будут сталкиваться с чем-то сложным для себя, с тем, что требует усилия для понимания, с тем, что, может быть, даже вызовет отторжение в первый момент.

То есть человек будет воспитываться в состоянии только позитивной аффирмации, с очень узкой картиной мира и восприятия действительности. Когда человек взаимодействует лишь с тем, что ему нравится, это его максимально ограничивает, получается тоннельность мышления, восприятия, взаимодействия с другими людьми. Мы сделаем человека однобоким. А потом он окажется, например, на работе в реальном мире, то есть в окружении людей с очень разными мнениями, и будет к этому не готов.

То есть это всё тоже про формирование ценностей.

Когда-нибудь искусственный интеллект достигнет такого уровня, что мы не будем понимать, с кем мы общаемся, например, в чате — с машиной или с человеком. Это хорошо или плохо? Что произойдёт, когда машина будет полностью всё знать про то, как мы работаем, как мы обучаемся, какая методика или технология наиболее эффективна для нас, и будет подсовывать нам тот контент, те ситуации и тот опыт, которые нас точно доведут до цели?

Если мы при этом даже не будем понимать, что с нами происходит, то мы перестанем быть субъектами обучения, а станем объектами обучения для машины. Это кажется очень опасным.

Нам всем стоит не гнаться за вечной эффективностью, потому что за «эффективностью» часто скрывается оправдание равнодушия или отсутствия эмпатии, ведь в предельном своём выражении она предполагает достижение целей любой ценой. И не хвастать тем, как мы замечательно внедряем алгоритмы, механизмы и неотличимые от людей чат-боты, которые обучают людей.

Применяя искусственный интеллект в погоне за оптимизацией и эффективностью, нельзя забывать, что мы всё-таки имеем дело с машиной, и то, что она принимает решения о том, как учить человека, может иметь очень необычные последствия. Нам надо задуматься и проговорить, какова роль машины в обучении человека.

Нужно начинать думать и обсуждать в сообществе, какого выпускника сейчас формирует EdTech, какие ценности мы закладываем в сугубо практические программы.

Я думаю, сначала мы должны договориться в сообществе, что такое качественное обучение. Это понятие включает требования к процессу и результату. И когда мы построим понимание качественного обучения, нам нужно будет обсудить, насколько эта модель этична.

Первый вопрос тут — про неизбежность достижения образовательного результата. Если мы знаем, как человек учится, и можем подбирать определённые образовательные модели, которые точнее приведут его к образовательному результату, то есть обеспечим непременное его достижение, это морально или аморально?

Фото: djurga для Skillbox Media

В какой момент человек должен принимать решение о том, как он сам регулирует это достижение результата? Должен ли он, условно, где-то поставить «галочку» о том, что если будет терять мотивацию, то согласен на то, чтобы машина его «дожимала» для завершения обучения?

Второй большой вопрос — этично ли то, что мы доверяем искусственному интеллекту (по сути, машине) процесс обучения человека? Где место проектировщика образования в этой модели?

Третье — нужно признать, что мы в EdTech не только практическим навыкам обучаем, но и всё-таки задаём некую ценностную рамку. Этот набор ценностей нужно как-то определить, договориться о нём всем участникам рынка, разобрать его с той точки зрения, что вот «это — ОК», а «это — не ОК».

И тут одно вытекает из другого — этичность набора ценностей связана с этичностью применения технологий. Представим, что практическим навыкам людей учит машина, в которую «не загрузили» никакие ценности. То есть она эти ценности как-то «сама определяет» или просто абсолютно бесценностна.

Возвращаясь к метафоре с колодцем и монеткой: когда машина заметит, что человек нашёл монетку и заинтересовался ею, она её отберёт и даст ему опять лопату. И будет права, потому что с её позиции ценность только одна — научить тому, что первоначально стояло в качестве цели, то есть копать яму. А ценностей любознательности, открытия чего-то нового, приключения, человекоцентричности в неё не заложено.

Научитесь: Продюсер онлайн-курсов с нуля до PRO Узнать больше