Остало

Наш храбри нови свет: зашто напредак АИ изазива етичку забринутост

Наш храбри нови свет: зашто напредак АИ изазива етичку забринутост

Готово свакодневно слушамо о новом напретку у АИ који омогућава нове начине за надгледање активности и људи, трансформишући многе процесе у нашем свакодневном животу.

ПОВЕЗАНО: БЕНТХАМ, ХОБИ И ЕТИКА ВЕШТАЧКЕ ИНТЕЛИГЕНЦИЈЕ

Оно што ћемо тада моћи чути сваки други дан је како АИ може погоршати расне и родне предрасуде и представљати претњу приватности, сигурности посла и економском благостању. То би могло чак изазвати рат по мишљењу Елона Муска.

Препознавање лица помоћу АИ покреће забринутост због приватности и пристрасности

Као што је објашњено у Забринутостима за препознавање лица: Шест Мицрософтових етичких принципа, „Раширена употреба технологије препознавања лица заснована на вештачкој интелигенцији може довести до неких нових задирања у приватност људи“.

С обзиром на могућност да ухвате слику људи и идентификују их на јавним улицама у име безбедности, људи су с правом забринути да ће изгубити способност да одржавају било какву приватност. То се односи на окружења у школи и на послу, како је детаљно објашњено у чланку.

А 2018 Нев Иорк Тимес чланак је покренуо још једну забринутост насловом „Препознавање лица је тачно ако сте бели момак“. Проблем је у следећем:

„Што је кожа тамнија, то се више грешака појављује - до скоро 35 процената на сликама жена тамније пути, према новој студији која пробија свеже темељећи мерећи како технологија делује на људе различите расе и пола.“

Извор ових бројки је Јои Буоламвини, истраживач у МИТ Медиа Лаб и оснивач Алгоритамске лиге правде (АЈЛ). Посветила се откривању како пристрасности продиру у АИ и тако искривљују резултате за препознавање лица.

Погледајте њен ТЕД разговор у овом видеу:

Буоламнвини је ове године објавила налазе свог истраживања са Иниолува Деборах Раји са Универзитета у Торонту, у Ацтионабле Аудитинг: Инвестигатинг тхе Импацт оф Публиц Бамингинг Биасед Перформанце Ресултс оф Цоммерциал АИ Продуцтс.

Према тој студији, Амазон-ов софтвер за поновну контролу такође је забрљао за оне који спадају у категорију белих мушкараца. Према студији, жене су готово сваки пети пут погрешно идентификовале као мушкарце. Поред тога, 31 одсто случајева погрешно је идентификовао жене тамније коже као мушкарце.

Буоламнвини је написала Медиум пост у којем се осврнула на своје истраживање и да 26 истраживача захтева да Амазон престане да продаје Рекогминатион. АЦЛУ је такође појачао притисак, позивајући акционаре Амазона да захтевају укидање технологије препознавања лица.

Притисак је дао неке мерљиве резултате. Сан Франциско је недавно гласао да му се забрани коришћење арсенала технолошких алата које користе органи реда.

Забринутост због проблема пристрасности АИ

Други су такође указали на могућност расне предрасуде коју појачава уметничка интелигенција, а посебно Цатхи О'Неил у Оружје за уништавање математике: како велики подаци повећавају неједнакост и угрожавају демократију. Оно што она назива „уништавањем математике“ је „резултат модела који јачају баријере, држећи одређене демографске популације у неповољном положају идентификујући их као мање вредне кредита, образовања, могућности за посао, условног отпуста итд. “

Погледајте њен ТЕД разговор овде:

Без обзира да ли проблем потиче из недостатака у прикупљеним подацима или у алгоритмима постављеним за анализу података, људи више нису задовољни да верују у АИ као објективну и свесну. Они сада захтевају објашњиву уметничку интелигенцију која уводи транспарентност у процес и омогућава да се пристрасности и друге мане открију и реше.

„Оно што је од виталне важности је учинити било шта у вези са уметничком интелигенцијом објашњивом, поштеном, сигурном и са лозом, што значи да би свако могао врло једноставно да види како се развија и која апликација и зашто, изјавила је Гинни Рометти, извршна директорка ИБМ-а, током свог обраћања на ЦЕС-у 9. јануара 2019. ИБМ сада нуди консултације о смањењу пристрасности за оне који граде системе за машинско учење.

Комплетну адресу можете погледати овде:

Етичка забринутост у вези са АИ као егзистенцијалном претњом

„АИ је основни ризик за постојање људске цивилизације“, изјавио је Елон Муск 2017. током интервјуа пред публиком на Летњем састанку Удружења гувернера. У целости то можете видети на овом видео снимку:

Ако више волите много краће снимање, можете видети овај видео:

Није непознат напредној технологији, Муск се расправљао из позиције некога ко разуме и могућности и последице уметничке интелигенције. Због тога тврди да се прописи морају применити сада, а не након напретка технологије и већ представљају опасност.

За разлику од негативних исхода који су у прошлости могли бити резултат других технологија, он је рекао да су ограничени "на појединце" и да не утичу на "друштво у целини", рекао је Муск. Међутим, АИ представља „основни, егзистенцијални ризик“.

За Муска тај ризик укључује започињање рата. Поставио је „чисто хипотетички“ пример да је могуће да се АИ постави са „циљем да максимизира вредност портфеља залиха“ који је „дуго у одбрани“ и да ће учинити све што је потребно да постигне свој крај, укључујући покретање ствари за подстицање рата.

На мање катастрофалној ноти, Муск је такође признао да АИ заиста прети пословима. Али за неке је то права катастрофа због које треба бити забринут.

Етичка забринутост у вези са АИ и пословима

У јулу 2017. године Валл Стреет Јоурнал стробјавио чланак, Роботи замењују раднике тамо где купујете. Описује неке технологије које већ замењују запослене у Валмарт радњама.

Тхе Јоурнал у чланку се налази и табела Цити Ресеарцх-а о претњи радним местима од аутоматизације до 2030. године. Индустрије за које се очекује да ће имати најмању штету укључују осигурање и финансије, са високом стопом ризика од 54 процента.

Услуге смештаја и прехране нису далеко, са високом стопом ризика од 86 процената. То би значило да се огроман број људи повукао са посла, што се не би показало штетним само за појединце који изгубе свој, већ и за целокупну економију.

У интервјуу за ВИАневс, Антхони Задор, председник Неурознаности и професор биологије у лабораторији Цолд Спринг Харбор, упозорио је да ће неке „последице по друштво на много начина бити поражавајуће“.

То је првенствено због чињенице да ћемо видети да „десетине милиона радних места“ нестају без икаквог уверавања „са чим ће бити замењени, ако ће их нешто заменити“.

Пожурио је додати да ту кривњу своди на „друштво; није крива технологија. " Без обзира на то ко је крив, штета се чини неизбежном.


Погледајте видео: Uspeh (Јануар 2022).