Как искуcственный интелект повлияет на аудит

16 октября 2018, 14:00

Искусственный интеллект, blockchain, интернет вещей несут огромные возможности для создания конкурентного преимущества бизнеса.

Однако, используя их, компании берут на себя и более высокий уровень риска, а значит менеджмент должен задуматься о путях его минимизации.

С ростом проникновения интернета и смартфонов в Украине количество данных, получаемых от клиентов, также растет. Повышается потребность в качественных решениях на основе искусственного интеллекта и больших данных, а круг применения таких решений стремительно расширяется. Уже сегодня бизнес использует искусственный интеллект для общения с клиентами 24/7, в онлайн-торгах, в сфере электронной коммерции, в банках, в городском управлении. В частности, в Киеве планируется использовать искусственный интеллект в таких сферах как безопасность города, инфраструктура, образование и т.п. В Голландии, например, использовали алгоритмы на основе искусственного интеллекта, чтобы обеспечить равную заполняемость школ, предоставив при этом оптимальные условия и возможности всем детям.

Видео дня

Использование аналитики и технологий, работа с большими данными повышают эффективность принятия решений, дают возможность создавать новые бизнес-модели и экосистемы, а также улучшать клиентский опыт. При этом организации любого типа ожидают, что их бизнес-решения будут основываться на надежной аналитике данных. Соответственно, вопросы оценки рисков использования технологий и данных становятся все более актуальными.

Почему обеспечение уверенности в эпоху машин важнее, чем когда-либо? Как обеспечить адекватность процессов анализа данных? И есть ли у вас как у руководителя компании или просто как у гражданина понимание искусственного интеллекта и машинных алгоритмов и доверие к ним?

Это серьезные вопросы для всех организаций, которые начали состязания в цифровых гонках. Новые технологии несут не только конкурентные преимущества, но и более высокий уровень риска. Например, руководителям предлагается принимать важные решения исходя из результатов алгоритма, который они не создавали и не понимают полностью. Согласно последнему отчету KPMG Guardians of Trust, в результате опроса 2200 руководителей международных компаний, которые принимают решения, касающиеся информационных технологий и бизнеса, оказалось, что только 35% имели высокий уровень доверия к аналитике своей организации. Руководители компаний начинают задавать сложные вопросы о достоверности данных и аналитики. Исследование указывает на существование четкой необходимости в активном управлении аналитикой с целью укрепления доверия.

Другой аспект проблематики надежности данных и связанных с этим рисков – это определение того, кто несет ответственность и в какой степени. Сколько бы мы ни обвиняли свои компьютеры, они всего лишь машины, и не могут отвечать за решения или инсайты, которые они генерируют. По данным вышеупомянутого исследования, 62% респондентов считают, что в случае аварии без жертв, вызванной автономным транспортным средством, когда им не управлял человек-водитель, ответственность должен нести разработчик программного обеспечения. Однако ответ на вопрос "кто должен нести ответственность в ситуациях с более значимыми последствиями?", ранее озвученный такими известными личностями, как Хокинг и Маск, до сих пор остается открытым, хотя и активно обсуждается в обществе.

По мере роста использования машинного обучения и искусственного интеллекта мы можем быть удивлены тем, как машины могут нас подвести:

  • Проблема поведения "суперчеловека" - его функционирование может стать "слишком совершенным", и мы окажемся в ситуации, когда невозможно будет предвидеть его последствия. Здесь вспоминается восстание машин из известного фантастического фильма.
  • Проблема поведения "недочеловека" - несмотря на то, что алгоритмы могут казаться невероятно умными, результатом их использования может стать абсолютно ненормальная ситуация. Например, люди могут быть "травмированы" системой GPS вследствие выполнения устаревших и неправильных указаний: известны случаи, когда люди въезжали в Долину Смерти и исчезали из-за отсутствия правильных данных GPS.
  • Проблема поведения "плохого человека" - алгоритмы, используемые для машинного обучения, могут также получить вредные привычки. Например, когда недобросовестные пользователи "обучали" алгоритмы распространять сообщения, написанные на языке ненависти и содержащие дискриминационные высказывания.

Поэтому для того, чтобы искусственный интеллект был действительно трансформационным для бизнеса, мы должны доверять тому, как он функционирует. Именно поэтому комплексная модель обеспечения уверенности настолько важна. Она должна порождать доверие, гарантируя, что алгоритмы надежны, система является безопасной в кибернетическом смысле, что ИТ-процессы и средства управления внедряются надлежащим образом, что введено адекватное управление данными и что существует структура управления, которая разбирается в этике машинного обучения. Это понимание со временем должно быть включено в управление широким кругом организационных рисков, таких как потенциальное влияние сбоя на финансовые результаты или репутацию.

poster
Дайджест главных новостей
Бесплатная email-рассылка только лучших материалов от редакторов NV
Рассылка отправляется с понедельника по пятницу

Если рассмотреть эту модель обеспечения уверенности, проведение "аудита" искусственного интеллекта аналогично аудиторской проверке финансовой отчетности и внутреннего контроля. Применяются те же принципы и соответствующая практика, как, например, три линии защиты и оценка степени влияния потенциальных ошибок. Так же, как и в случае с финансовой отчетностью, общественные интересы должны быть наивысшим приоритетом для "аудитора", включая абсолютную готовность быть прозрачными и тесно сотрудничать с национальными и международными регулирующими органами. И в этом случае "аудитор" также подотчетен широкой общественности, регуляторам и корпоративному сектору.

Наконец, управление машинами не должно существенно отличаться от управления людьми, и это должно быть интегрировано в структуру всего предприятия. Таким образом, те, на кого влияют решения, принятые искусственным интеллектом, будут доверять системе так же, как голландские родители, чьи дети будут иметь равные шансы на выбор школы с помощью машинного алгоритма, прошедшего независимый "аудит".

Показать ещё новости
Радіо NV
X