Карьера
Бизнес
Жизнь
Тренды
Алгоритм разумных решений

Алгоритм разумных решений: как ИИ тренирует критическое мышление и самостоятельность

Один из главных мифов – умный алгоритм снимает с менеджера большую часть нагрузки. На деле ИИ нередко повышает ее

Казалось бы, с развитием умных алгоритмов человек снимает с себя часть ответственности, делегируя ее машинам. На деле искусственный интеллект побуждает человека серьезнее относиться к ряду функций, внимательнее анализировать собранную информацию и тем самым принимать взвешенные решения, отмечает в колонке для IQ Media социолог Павел Сорокин.

Выводы – за человеком!

Современные исследования об использовании искусственного интеллекта в менеджменте быстро развеивают один из главных мифов – о том, что умный алгоритм снимает с менеджера большую часть нагрузки. На деле ИИ нередко повышает ее.

Приведу пример решений в сфере отбора и продвижения кадров. Существует огромная индустрия по анализу цифровых следов пользователей в социальных и корпоративных сетях, на различных платформах, в мессенджерах. Топ-менеджеры и HR-специалисты фирм стремятся понять, что можно узнать о сотрудниках (кандидатах) из оставленных ими следов и какие решения принимать на этой основе. Появляется искушение, скажем, лишить премии работника с «плохими» цифровыми следами.

Но литература, которая осмысляет работу ИИ в этой сфере, предостерегает: не стоит принимать резкие решения исключительно на основании цифровых следов. Нужно беседовать с сотрудником с глазу на глаз, проводить специальный анализ того, как оставленные им следы связаны с его объективной ситуацией, и только тогда делать выводы.

В массовом сознании ИИ часто предстает прежде всего как рекомендательная система с предложением или навязыванием решений («Делай так», «Купи – продай») и манипуляциями, которые вынуждают людей совершить какие-то действия. Между тем, главная функция искусственного интеллекта – сбор и анализ огромного количества данных о взаимосвязях между разными параметрами, так или иначе относящимися к человеку. Это мощный ресурс, который ИИ дает пользователю. Но в анализе данных человек не должен полностью доверяться алгоритму. 

Многочисленные исследования убеждают в этом.

Ловушка ложных сигналов

В недавней статье о репрезентации действий человека в цифровых следах есть любопытные данные. Выяснилось существенное расхождение между представлениями людей о наиболее часто посещаемых ими интернет-сайтах и реально оставляемыми ими цифровыми следами (не более 5% испытуемых дали корректный ответ). Человек знает, что «наследил», и считает это значимой частью своего позиционирования. Соответственно, немалая часть активности в сети – это следы, оставленные неосознанно (человек случайно открыл страницу, кликнув на рекламу, и потом забыл закрыть). Но именно они позволяют получить о человеке большой объем информации, который потом можно использовать.

Согласитесь, существует огромная разница: «наследил» ли я с пониманием, что это часть моей стратегии, или сделал это случайно. Между тем, машина не различает субъективную значимость этих следов для человека. Она рассматривает их как равноценные! Но ведь, если считать все следы как одинаково представляющие нас, то в значительной степени наши выводы будут ложными! 

Рекрутер или эйчар, который планирует закрыть мной вакансию или продвинуть внутри компании, увидит случайные следы и подумает: «Так вот он какой!». А на самом деле все это было спонтанно – это «шумы».

С учетом вышесказанного получается, что ИИ должен стимулировать наше критическое мышление и навыки анализа.

Квази-акторы

Приведу другой яркий пример. В прошлом году в рамках специального исследования мы пытались по следам в цифровой среде найти наиболее активных пользователей, меняющих социальную реальность через проекты, социальные движения, инициативы. Мы обнаружили, что среди 3–5% самых влиятельных (по количественным признакам) пользователей свыше 95% – это боты, коммерческие или искусственные аккаунты, которые, очевидно, используют умные алгоритмы для того, чтобы оставлять свои следы.

Иначе говоря, если мы не критически рассматриваем цифровую среду и пытаемся с помощью ИИ оценивать человека, мы можем сильно ошибиться – потому, что действия, которые мы будем анализировать, на 95% – действия не человека.

Нельзя исключительно по цифровым следам делать выводы, кто хороший, кто плохой, кто активный, а кто – нет, не разобравшись в сути именно ручным анализом. 

Так или иначе, данные о взаимосвязях, которые выявляет ИИ, – колоссальный вызов для самостоятельности и ответственности человека. Но в каком смысле?
 

Императив самостоятельного анализа

До появления умных алгоритмов менеджерская информация была условно трех типов: базовая, общедоступная (в сутках 24 часа, Земля вращается вокруг Солнца и пр.), скрытое знание (tacit knowledge), которое люди получали от знакомых (через сильные и слабые связи), и результаты исследований, когда, например, компания с помощью социологов опрашивала сотрудников (скажем, о том, что их волнует). Тогда руководитель, пытавшийся с опорой на эти данные повысить эффективность компании, по сути, располагал довольно ограниченным объемом информации.

Сегодня ситуация кардинально другая. Благодаря ИИ руководителю доступен огромный объем информации о действиях сотрудников, и в этих сведениях могут быть ключи к тому, чтобы кого-то повысить, дать возглавить новое направление работы и т.д. Но, чтобы справиться с этой информацией и принять на ее основе правильные решения, нужно обладать мощными компетенциями, прежде всего в computer science. Поэтому, как ни странно, появление ИИ повышает запрос на самостоятельное проактивное действие – хотя бы потому, что искусственный разум сообщает человеку основания для совершения действия.

Сверить ИИ с эволюцией общества

Одна из причин, почему индивидуальная воля, смелость и невозможность напрямую следовать, казалось бы, очевидным рекомендациям из «цифры» – суть важнейшие требования к человеку, состоит в том, что мир меняется. Даже если мы представим себе, что данные, собранные машиной, полностью верны, и там нет шумов, – так или иначе, нам для выстраивания стратегии изменений на базе этих фактов надо понимать, как трансформируется структура, в которой мы действуем.

Одно из ограничений ИИ – в том, что он не предсказывает следующее качественное изменение самой структуры, а экстраполирует то, что было в прошлом. Между тем, главная черта современной фазы социетальной эволюции (изменения общества в целом) заключается в том, что сами структуры трансформируются. Но особенно важно, что в этих изменениях все большую роль играет инициативное, созидательное действие человека, которое в принципе не может быть предсказано умным алгоритмом. Вот это творческое, проактивное применение данных ИИ «про прошлое» для апгрейда настоящего, причем успешного, то есть для изменений, которые делают жизнь лучше, – и есть ключевой вызов для самостоятельности как фактора общественного развития. 

Любой тренд, любая взаимосвязь, обнаруженные искусственным интеллектом, должны ответственно интерпретироваться с точки зрения их устойчивости в будущем: где мы имеем дело со стабильной ситуацией, а где вероятен «слом» существующих паттернов?
 

Контролировать данные ИИ

В сфере потребления пользователям надо уметь сопротивляться агрессивному алгоритмизированному навязыванию контента. В личной стратегии – в образовании, карьере, отношениях – тоже есть запрос на рост самостоятельности. Крайне важно научиться работать с данными, выдаваемыми ИИ, различать, какие закономерности верны, и отбраковывать фейки.

В этом смысле умные алгоритмы ставят нас в еще большую зависимость от нашей самостоятельности, активности и ответственности. Но тем самым они помогают нам прокачать качества, без которых невозможна самореализация в современном мире.

Павел Сорокин, заведующий Лабораторией исследований человеческого потенциала и образования Института образования НИУ ВШЭ, руководитель научного проекта «Человеческий потенциал: эффекты и отдача от образования» НЦМУ «Центр междисциплинарных исследований человеческого потенциала»


Записала и отредактировала Ольга Соболевская