Опасность Big Data Analysis
Кэти О’Нил, автор бестселлера «Оружие математического уничтожения», видит большую опасность в использовании Big Data, т.к. алгоритмы могут сильно усугубить неравенство и несправедливость.
Несколько важных идей книги.
Алгоритмическая модель способствует возникновению токсичного цикла и помогает поддерживать его
В некоторые алгоритмические модели встроены предубеждения их заказчиков, в том числе и скрытые или явные расистские. Расизм исходит из ложного убеждения в том, что определенные расы людей плохо себя ведут и, скорее всего, всегда будут вести себя таким образом.
Рейтинги высших учебных заведений, которые опираются на статистические модели, часто не имеют ничего общего с реальностью
В пример О’Нил приводит случай, когда на седьмом месте, сразу за Гарвардом, в рейтинге мировых вузов оказалась кафедра математики университета Саудовской Аравии. В принципе в этом не было ничего невозможного, но кафедре было всего два года, и маловероятно, что за такой короткий срок ей удалось обогнать таких гигантов, как Кембридж и другие, — на это требуются десятилетия. Такой результат выдал алгоритм, подсчитывающий рейтинги.
Использование алгоритмов в нерегулируемых секторах экономики делает их еще более опасными
В пример О’Нил приводит так называемых брокеров данных, которые негласно собирают и продают их заинтересованным лицам, от гигантских корпораций до фирм-однодневок. Они могут в точности установить множество фактов о потенциальном потребителе товаров и услуг, вплоть до того, что он страдает диабетом, живет в доме с курильщиком, ездит на джипе, имеет собаку и др. Брокеры данных собирают и общедоступные государственные данные, в том числе о голосовании и продаже жилья. Все это тоже заносится в профили потребителей для последующей продажи.
Об опасностях, которые представляют большие данные и о том, почему с ними нужно обращаться очень осторожно, мы рекомендуем вам прочитать в нашем спринте с ключевыми идеями книги Кэти О’Нил «Оружие математического уничтожения»!