Learn first
For the latest KMBS events and news, visit KMBS Live at the top right corner of the screen
Open kmbs live[EN] Наші життя все більше визначаються рішеннями, що приймаємо не ми, а штучний інтелект чи математичні алгоритми, закладені в певні сервіси. Проблема в тому, що нерідко навіть машини можуть бути упередженими та діяти у дуже вузьких рамках. Наприклад, існують підтвердження тому, що програми з розпізнавання обличчя працюють значно надійніше для білих чоловіків. А Amazon навіть довелось відмовитись від власної подібної технології (яку планувалось застосовувати для найму працівників), оскільки виявилось – алгоритм, на якому вона базується, «упереджений» проти жінок. Подібні випадки змінюють ставлення людей до технологій в цілому. Нещодавно було проведено дослідження Brands in Motion, у межах якого опитали 27 тис. людей на восьми ринках. Виявилось, що 97% споживачів зараз очікують від брендів етичного використання технологій. А 94% вважають: якщо цього не відбуватиметься, держава має втрутитись і навести лад у цій сфері. Таким чином, технології та технологічні компанії вже не є «священною коровою», вимоги до них суттєво зростають. І бізнесу варто враховувати побажання споживачів, розробляючи все більш етичні алгоритми та використовуючи їх мудро. Ця тенденція проявляється, у тому числі, у появі сервісів, подібних до Fairness Flow. Його було представлено у травні 2018-го на конференції розробників Facebook. Мета цього інструменту - допомогти визначити упередження, що впливають на алгоритми платформи, у тому числі зумовлені гендером і віком. Зараз Fairness Flow доступний кожному інженеру Facebook. Схоже, що подібні інструменти користуватимуться неабиякою популярністю: адже у США вже є прецеденти судових позовів до Facebook та його рекламодавців, що таргетують рекламу, скажімо, виключно на чоловіків.
97% споживачів зараз очікують від брендів етичного використання технологій. А 94% вважають: якщо цього не відбуватиметься, держава має втрутитись
Восени 2018 року IBM проанонсувала вихід пакету продуктів, що мають збільшити прозорість штучного інтелекту й зменшити його упередженість. Цей пакет дозволяє користувачам перевіряти, чи не є якась людина чи група людей суб'єктом заангажованості, а розробникам - визначати, що може ставати причиною упередженості ШІ, і отримувати рекомендації щодо того, як це виправити. Ці інструменти можуть використовуватися як на власній платформі IBM - Watson – так і на сторонніх, на кшталт Tensorflow чи AzureML. Цікавий кейс втілення описаної тенденції - неприбуткова організація Crisis Text Line, розташована в США. Вона провела навчання вже 12 тис. психологів-консультантів, які надають психологічну допомогу в месенджерах (і наразі їхні розмови з клієнтами нараховують вже 62 млн. повідомлень). Навесні 2018-го ця організація запустила комерційну платформу Loris.ai, мета якої - допомогти у навчанні спеціалістів, що мають вести важкі розмови. Алгоритм, що поєднує машинний інтелект та емпатію, може стати прикладом етичної автоматизації, якої прагнуть люди в усьому світі. Якщо ваша компанія вже використовує штучний інтелект та алгоритми, то перший крок у напрямку описаного тренду, - перевірити, чи не є вони упередженими. Компанії-гіганти - наприклад, Facebook, - вже це роблять, і на черзі решта ринку. Втім, ця тенденція зачепить не тільки технологічні організації. Адже майже всі, так чи інакше, використовують цифрові комунікації у спілкуванні з клієнтами (скажімо, чат-ботів). Помилку, якої може припуститись людина-працівник, споживачі пробачать легше, аніж помилку алгоритму. Тому бізнесу потрібно або зробити своїх цифрових «помічників» бездоганними («надлюдськими»), або більш «людяними» – в залежності від того ефекту, якого він прагне досягти. За матеріалами Trendwatching.com