Предразсъдъчният ИИ променя американския живот. Какво можем да направим по въпроса?

Предразсъдъчният ИИ променя американския живот. Какво можем да направим по въпроса?
Предразсъдъчният ИИ променя американския живот. Какво можем да направим по въпроса?
Anonim

Представете си свят, в който изкуствено интелигентните алгоритми вземат решения, които засягат ежедневието ви. Сега, представете си, че са предразсъдъчни.

Това е светът, в който вече живеем, казва ученият по данни, доктор от Харвард и автор Кати О'Нийл. (Прочетете част първа от нашата дискусия с д-р О'Нийл тук). Седнахме с номинирания за Национална награда за книга, за да разберем какво можем да направим относно предразсъдъците в ерата на големите данни. CT: Предразполага ли се към ИИ?

CO: Всеки алгоритъм, който не е изрично направен справедлив, трябва да се приеме, че е предразсъдък. Защото като хора ние сме предубедени. Ако признаем това и създаваме тези алгоритми с нашите стойности и с нашите данни, тогава не бива да приемаме, че се е случило нещо магически, което да направи нещата справедливи. Там няма магия.

CT: Откъде алгоритмите получават своите данни?

СО: Зависи от алгоритъма. Понякога социалните медии, за неща като насочване на политически пазари или реклама или колежи за печалба и хищнически заеми - но голяма част от данните не се събират в социални медии или дори онлайн.

Събирането на данни все повече се обвързва с реалния живот, като например получаване на работа, работа на вашата работа, отиване в колеж или отиване в затвора. Тези неща не са неща, които можем да заобиколим със законите за поверителност. Те са проблеми с властта, където хората, които са насочени от алгоритмите, нямат сила, а хората, които събират информацията, изграждат и разгръщат алгоритмите, имат цялата сила. Нямате никакви права за поверителност, ако сте подсъдим за престъпления, нямате никакви права на поверителност на работата си и нямате много по отношение на правата за поверителност, ако кандидатствате за работа, защото ако не отговорите на въпросите, които бъдещият ви работодател ви е задал, вероятно няма да получите работата.

Трябва да мислим по-малко за неприкосновеността на личния живот и повече за властта, що се отнася до алгоритмите и вредите [те могат да причинят].

КТ: Какво можем да направим, за да го подобрим?

СО: Можем да признаем, че тези алгоритми не са по своята същност перфектни и да ги тестваме за техните недостатъци. Трябва да имаме текущи одити и монитори - особено за важни решения като наемане, наказателно осъждане или оценка на хората на техните работни места - за да сме сигурни, че алгоритмите действат по начина, по който ние искаме, а не по някакъв дискриминационен или несправедлив начин.

Image

Ailsa Johnson / © Културна екскурзия

CT: Кои са най-добрите и най-лошите сценарии за бъдещето, основано на данни?

CO: Най-лошият сценарий е това, което имаме сега - че всички сляпо очакваме алгоритмите да са перфектни, въпреки че досега трябва да знаем по-добре. И ние разпространяваме минали несправедливости и несправедливости. И продължаваме да игнорираме недостатъците на тези алгоритми.

Най-добрият случай е, че признаваме, че тези алгоритми не са по-добри от хората. Ние решаваме какво искаме като хора, към какво се стремим. Каквото искаме да изглежда обществото, и ние учим на тези ценности. Ако правим това успешно, тези алгоритми биха могли да бъдат по-добри от хората.

КТ: Каква роля могат да играят всекидневните хора?

СО: Най-важната роля, която може да играе човек, е да не се доверява имплицитно на някой алгоритъм. Да имам огромно количество скептицизъм. Ако оценявате по алгоритъм, попитайте „Как да разбера, че е справедливо, как да разбера, че е полезно, как да разбера, че е точен? Каква е степента на грешки? За кого се проваля този алгоритъм? Проваля ли жени или малцинства? “ Задайте такъв въпрос.

Второто нещо, освен скептицизма, е, че ако смятате, че един алгоритъм е несправедлив към вас или други хора, е да се организирате с тези други хора. Скорошен пример са учителите. Статистическите модели за учители с добавена стойност са ужасни, почти произволни числа. Но те се използват, за да решат какви учители трябва да получат мандат и какви учители да бъдат уволнени, в цяла САЩ.

Моето предложение е те да получат съюза си, за да избутат назад. И това се случи на някои места. Но е изненадващо колко малко съпротива имаше поради математическия характер на системата за оценяване.

CT: Как попаднахте на „големи данни“?

СО: Работих на Уолстрийт и бях свидетел на финансовата криза отвътре. Бях отвратен от начина, по който математиката се използва, за да се възползвам от хората или да заблуждавам хората. Видях вида на щетите, които биха могли да дойдат от математическите лъжи, което наричам „оръжието на математиката“.

Реших да се измъкна от него, затова се присъединих към Occupy Wall Street и започнах да работя като учен с данни. Бавно осъзнах, че виждаме недостатъчен и подвеждащ свръх около подвеждащи алгоритми за данни, които се случват и извън Уолстрийт, и че това ще доведе до много щети. Разликата беше, че докато хората по целия свят забелязват финансовата криза, не мислех, че хората ще забележат провалите на тези алгоритми за големи данни, защото те обикновено се случват на индивидуално ниво.

Прочетете част първа от нашата дискусия с д-р О'Нийл тук. Книгата на д-р Кати О'Нийл, "Оръжията на унищожаването на математиката: Как големите данни увеличават неравенството и заплашва демокрацията", е достъпна сега.