• Legfontosabb
  • Internet És Tech
  • 3. téma: Az emberiség és az emberi ítélőképesség elvész, ha az adatok és a prediktív modellezés a legfontosabbá válik

3. téma: Az emberiség és az emberi ítélőképesség elvész, ha az adatok és a prediktív modellezés a legfontosabbá válik

Sok válaszadó azt mondta, hogy mivel az emberek túlságosan hisznek az adatokban, az emberiség elveszhet. Egyesek szerint mivel a kód mögött a technológiai vállalatok és néha a kormányok állnak, az algoritmusokat a hatékonyság és a jövedelmezőség optimalizálása érdekében írják, anélkül, hogy sokat gondolkodnánk az adatmodellezés és -elemzés lehetséges társadalmi hatásain. Ezek a válaszadók szerint az embereket a folyamat „inputjának” tekintik, és nem tekintik őket valósnak, gondolkodónak, érzőnek, változó lénynek. Néhányan azt mondták, hogy ahogy a folyamat fejlődik - vagyis amikor az algoritmusok elkezdik írni az algoritmusokat - az emberek teljesen kimaradhatnak a hurokból, hagyva, hogy „a robotok döntsenek”.

Nagyon sok helyen hasznosak és hasznosak az algoritmusok, de egyelőre egyik sem veszi figyelembe az emberek tényleges szükségleteit.

Egy névtelen válaszadó ezt írta: „Egyszerűen nem tudjuk megragadni minden olyan adatelemet, amely az ember tágasságát és az illető igényeit, vágyait, reményeit, vágyait képviseli. Ki milyen adatpontokat gyűjt? Tudják-e azokat az embereket, akiket az adatpontok tudnak, vagy csak azért értettek egyet a szolgáltatási feltételekkel, mert nem volt valódi választásuk? Ki keres pénzt az adatokból? Honnan tudhatja valaki, hogy miként masszírozzák az adatait, és milyen célokkal igazolja a végét? Nincs átláthatóság, és a felügyelet bohózat. Mindez rejtve van. Mindig meg leszek győződve arról, hogy az adatokat mások és nem az egyén gazdagítására és / vagy védelmére fogják felhasználni. Ez a gazdasági rendszer alapvető jellege, amelyben élünk.

Peter EckartKommentje sokak hozzáállását tükrözi ebben az elutasításban: „Gyorsabban létrehozhatunk algoritmusokat, mint amennyit megérteni vagy értékelni tudjuk azok hatását. A számítógéppel közvetített kapcsolatok kiterjesztése azt jelenti, hogy kevésbé vagyunk érdekeltek ezeknek az újításoknak az egyéni hatása iránt, és inkább az összesített eredmények iránt. Tehát a negatív egyéni hatást a „haladás” szükséges járulékos káraként fogjuk értelmezni. ”

Axel Bruns, a Queenslandi Műszaki Egyetem Digitális Média Kutatóközpontjának professzora elmondta: „Vannak versenyjogi, szabályozási és jogi hátrányok, amelyek a platformüzemeltető nevében történő nagyobb átláthatóságból erednek, és ezért csak a a kommunikációs folyamatok algoritmikus alakításának jelenléte és műveletei. Ez nem azt jelenti, hogy az ilyen algoritmusok eredendően „rosszak” abban az értelemben, hogy aláássák a hatékony kommunikációt; olyan algoritmusok, mint a Google PageRank, egyértelműen elvégzik azt a munkát, amelyet például tőlük kértek, és összességében hasznosabbá tették az internetet, mint amilyen nélkülük lenne. További átláthatóság nélkül a hétköznapi felhasználóknak egyszerűen bízniuk kell abban, hogy az algoritmus azt csinálja, amire szánják, és nem torzítja el nem megfelelő módon az elért eredményeket. Az ilyen algoritmusok továbbra is mélyen beépülnek az emberi élet minden területébe, és egyre nagyobb mennyiségű adatot fognak létrehozni a területeiken is. Ez tovább növeli az ilyen algoritmusok már meglévő erejét a valóság felépítésében, mérésében és ábrázolásában, valamint annak a potenciális hatásnak, amelyet bármilyen véletlen vagy szándékos hiba gyakorolhat a felhasználói tevékenységekre, a társadalom önmagának megértésére, valamint a vállalati és kormányzati döntésekre. Alapvetően az algoritmusok növekvő jelentősége az ilyen folyamatok számára nagyobb jelentőséget tulajdonít az általuk alkalmazott forrásadatoknak is, felerősítve az adathiányok és kizárások negatív hatásait ”.

Egy névtelen közösségi szószóló azt mondta: 'Nagyon sok helyen hasznosak és hasznosak az algoritmusok, de eddig egyikük sem vette figyelembe az emberek tényleges szükségleteit. Az emberi erőforrás jelenleg egy üzleti egyenlet inputja, nem valós, gondolkodó, szimbióta érzés az üzleti szem előtt ”.

Az egyik nagy amerikai egyetem egy anonim politológus egyetemi docense elmondta: „Az algoritmusok a technológia tipográfiája. Pillanatkép a viselkedésről, amelyet olyan kontextuális tényezők befolyásolnak, amelyek nagyon korlátozott képet adnak az egyénről. A gépírás rossz módja annak, hogy mások megítéljék, és rossz módszer a „létezésre”. ”

Rebecca MacKinnon, a Ranking Digital Rights projekt új-amerikai igazgatója ezt kommentálta: „A gépi tanulás által vezérelt algoritmusok gyorsan átláthatatlanná válnak még az alkotóik számára is, akik már nem értik a bizonyos döntések meghozatalához vagy bizonyos eredmények eléréséhez alkalmazott logikát. Az elszámoltathatóság és a teljes átláthatatlanság hiánya ijesztő. Másrészt az algoritmusok forradalmasították az emberek kapcsolatát az információkkal olyan módon, amely életmentő és felhatalmazó volt, és továbbra is ezt fogja tenni ”.

Az elsődleges nyereség és hatékonyság elérése érdekében történő programozás veszélyt jelent

A jó potenciálja óriási, de a szándékos és akaratlan visszaélések és visszaélések lehetősége nagyobb lehet.

A válaszadók nagy része mély aggodalmának adott hangot a hálózati algoritmusok által nyújtott elsődleges érdeklődés miatt. A legtöbben anonim módon tartották meg észrevételeiket, aminek van értelme, mivel a vitatás résztvevőinek jelentős részét vállalati vagy kormányzati érdekeltségek foglalkoztatják, vagy bizonyos szempontból finanszírozzák. Mint egy nonprofit szervezet névtelen elnöke és vezérigazgatója megjegyezte: 'A jó lehetősége óriási, de a szándékos és nem szándékos visszaélések és visszaélések lehetősége nagyobb lehet'. (Minden olyan válaszadó, akit ebben a szakaszban név szerint nem azonosítottak, névtelenül küldte meg észrevételeit.)

Az egyik résztvevő így írta le a jövőt: „A pozitívumok meglehetősen egyértelműek, például gyorsabban kapják meg a választ, a termék olcsóbb / jobb, az eredmény jobban megfelel az igényeknek. Hasonlóképpen, a negatívumokat is meglehetősen könnyű előre látni, tekintve, hogy alapvetően a hatalmi pozícióban lévő emberek / szervezetek fogják meghatározni az algoritmusokat. A nyereség motívumai, az erő felhalmozódása stb. Valódi erők, amelyeket nem hagyhatunk figyelmen kívül vagy kiküszöbölhetünk. Az algoritmusokat létrehozóknak tétje van az eredményben, ezért értelemszerűen elfogultak. Nem feltétlenül rossz, hogy ez az elfogultság jelen van, de drámai hatást gyakorol a kimenetekre, a rendelkezésre álló bemenetekre és a különféle hálózati hatásokra, amelyek teljesen közvetettek és / vagy előre nem láthatóak az algoritmus-fejlesztők számára. Ahogy világunk összekapcsoltsága növekszik, a negatív következmények pontos előrejelzése egyre nehezebbé válik, ezért nem is szükséges egy rossz szereplő számára, hogy káros körülményeket teremtsen embercsoportok, vállalatok, kormányok stb. Számára.

Egy másik válaszadó azt mondta: 'Az algoritmusok a hatalmas érdekek igényeit fogják szolgálni, és a kevésbé hatékonyak ellen fognak működni. Természetesen már látjuk, hogy ez elkezdődik. Ma rengeteg értékes adat keletkezik az emberek demográfiájáról, viselkedéséről, attitűdjéről, preferenciáiról stb. Az adatokhoz való hozzáférés (és annak következményei) nincs egyenletesen elosztva. Vállalati és kormányzati érdekeltségek tulajdonában van, ezért ezeket az érdekeket szolgáló felhasználásokra fogják használni. Tehát ma már azt látjuk, hogy a gyakorlatban az olyan dolgok, mint a „differenciált árképzés”, nem segítik a fogyasztót; segíti a dolgokat értékesítő céget stb. ”

Az IBM informatikai építésze elmondta: „A vállalatok a profit maximalizálására törekednek, nem pedig a társadalmi javak maximalizálására. Rosszabb esetben a nyereségkeresést társadalmi javakként csomagolják át. A hullám csúcsához közeledünk, amelynek mélypontja a manipuláció új etikája, a marketing, a magánélet szinte teljes hiánya. Minden prediktív modell, függetlenül attól, hogy személyes kényelemre vagy vállalati kapzsiságra használják-e, nagy mennyiségű adatot igényel. Ennek megszerzésének módjai a kultúrát legjobb esetben gyengéden átalakítják, és az alacsony oldalon a magánélet rombolói. A vállalatok nagy adatok felhasználása azt jósolja, hogy a bűnüldöző szervek árnyékos technikákat (pl. Stingrays) alkalmaznak a magánélet megsértésére. Az emberek túl gyorsan úgy tekintenek a bűnüldöző szervekre, hogy „a rosszfiúknak járnak esedékességüknek”, de rengeteg esetben visszaélések, téves személyazonosság, emberi hibák vannak, amelyek a rendőri brutalitást eredményezik az ártatlanokkal szemben stb. Több adat valószínűleg nem enyhíti a hibákat; ehelyett a rendőrség túllépését fogja táplálni, ahogyan a vállalatok túllépését is.

Azt mondta egy másik válaszadó: „Minden a vállalatok érdekeinek és az 1% -nak szolgálja majd. Az élet kényelmesebbé válik, de a megkülönböztetés, az információk megosztása és a társadalmi mérnöki áron ”.

Nehéz elképzelni, hogy az algoritmusok figyelembe veszik a társadalmi előnyöket, amikor azokat rövid távú fiskális eredményekre összpontosító vállalatok hozzák létre.

Egy professzor megjegyezte: „Ha a sikert a karcsú, hatékony globális vállalatok jelentik, a jövő többnyire pozitív lesz. Ha az algoritmusok megítélésének kritériuma egy középosztály fenntartása a siker lehetőségeivel, akkor ez nem valószínű. Nehéz elképzelni, hogy az algoritmusok figyelembe veszik a társadalmi előnyöket, ha azokat rövid távú fiskális eredményekre összpontosító vállalatok hozzák létre ”.

Egy vezető szoftverfejlesztő azt írta: „Az intelligens algoritmusok hihetetlenül hasznosak lehetnek, de az intelligens algoritmusokból általában hiányzik a fekete-fehér közvetlenség, amelyet a kapzsi, ostoba és rövidlátó előnyben részesít. Inkább a hülye, túl tág algoritmusokat részesítik előnyben, alacsonyabb sikerességi rátával és hatalmas mellékhatásokkal, mert ezeket sokkal könnyebb megérteni. Ennek eredményeként az egyes embereket szarvasmarhákként terelgetik, és kiszámíthatóan pusztító eredménnyel járnak a jogállamiság, a társadalmi igazságosság és a gazdaság területén. Például azt látom, hogy az algoritmikus társadalmi adatok összeomlása a „PreCrime” -hez vezet, ahol a hétköznapi, ártatlan állampolgárokat letartóztatják, mert túl sok zászlót állítottak be az Igazságügyi Minisztérium adathálózatában.

Egy üzleti elemző megjegyezte: 'Az eredmény vállalati / kormányzati szempontból pozitív lesz a társadalom számára, és egyéni alapon negatív lesz'.

Az amerikai egyetem oktatója azt mondta: 'Történelmileg az algoritmusok embertelenek és embertelenek. A hatalmon lévők számára is ellenállhatatlanok. Az utilitáris mérőszámok alapján az algoritmikus döntéshozatalnak nincs hátránya; az a tény, hogy örökös igazságtalanságot eredményez az általa létrehozott kisebbségi osztályokkal szemben, figyelmen kívül marad. A közjó a múlt hiteltelen, elavult emlékévé vált.

Egy másik válaszadó, aki egy nagy globális emberi jogi alapítványnál dolgozik, azt mondta: „Már létrehoztak algoritmusokat annak ellenőrzésére, hogy mit látunk a közösségi médiában, és hogyan jelölik a tartalmat ugyanazokon a platformokon. Ez elég veszélyes - algoritmusok bevezetése a rendészetbe, az egészségügybe, az oktatási lehetőségekbe sokkal súlyosabb hatással lehet a társadalomra ”.

A média gyártásának és elméletének egy névtelen professzora figyelmeztetett: 'Bár az algoritmusok kezdik reagálni a polgárokat, általában semlegesnek tekintik őket, ha egyáltalán látják őket. Mivel az algoritmusok nagyon saját tulajdonúak és jövedelmezőek, nagyon veszélyesek. A tévével az Egyesült Államok kifejlesztette a nyilvános televíziózást, milyen nyilvános tér lesz elérhető az információk birtoklása érdekében? Ez a legfontosabb kérdés azok számára, akiket érdekel a demokratikus társadalmak jövője ”.

Teljes furattal megyünk a területre, ahová tétován kellene megközelítenünk, ha egyáltalán.
David Golumbia

David Golumbia, a Virginia Commonwealth University digitális tanulmányainak egyetemi docense azt írta: 'Az algoritmikus feldolgozás feltételezett előnyeit vadul túlbecsülik, és a károkat drasztikusan alábecsülik. Az algoritmikus feldolgozás sok szempontból megfosztja az egyéneket és csoportokat attól, hogy megismerjék és kezeljék életüket és felelősségüket. Még akkor is, ha az algoritmikus vezérlés szempontjai egyéneknek vannak kitéve, általában nincsenek olyan ismereteik, amelyek ahhoz szükségesek, hogy megértsék ennek a kontrollnak a következményeit. Ez már széles körben nyilvánvaló abban a módon, ahogyan a kreditértéket évtizedek óta használják a társadalom alakítására, amelyek többsége rendkívül káros volt, annak ellenére, hogy a kreditrendszer valamilyen előnyökkel jár az egyének és a családok számára (bár a hitelek folyamatos nyújtása meghaladja az ember jövedelmét) továbbra is tartós és romboló probléma). Teljes fúrással megyünk a területre, ahová habozva kell megközelítenünk, ha egyáltalán, és amilyen mértékben felmerülnek bennük, a fejlemények iránti aggodalmakat általában a kezükből utasítják el azok, akik a legtöbbet profitálják ezekből a fejlesztésekből.

A Berkeley-i Kaliforniai Egyetem egy névtelen professzora megjegyezte: „Algoritmusokat nagyrészt a vállalatok hoznak létre és használnak. A piacgazdaság érdekei nem azonosak az algoritmikus döntéshozatal alatt álló emberek érdekeivel. A költségek és a technológia romantikázása az algoritmusok egyre nagyobb mértékű elfogadását fogja ösztönözni az emberen alapuló döntéshozatal helyett. Néhánynak pozitív hatása lesz. De a negatívumok potenciálisan hatalmasak. És nem látok semmiféle felügyeleti mechanizmust, amely működhetne ”.

Joseph Turow, a Pennsylvaniai Egyetem kommunikációs professzora elmondta: „Probléma az, hogy bár egyes feladatok megkönnyítik az egyének számára, sok algoritmus megszakítja autonómiáját azzal, hogy az interakciókból származó adatokat felhasználja azok profilozásához, pontozásához és e következtetések alapján döntse el, hogy milyen lehetőségeket és lehetőségeket mutasson be a továbbiakban. Mindezt saját algoritmusok hajtják végre, amelyek még a pontozott személyek számára sem lesznek nyitottak a megfelelő megértésre és felügyeletre. ”

A M. méteres Karl M., szociológiai kutató és a Bulletin of Methodology Sociology igazgatója, Ecole Normale Supérieure de Paris azt mondta: 'A kérdés valóban az:' A főnökök következő évtizedének nettó összhatása pozitív lesz-e az egyének és a társadalom számára, vagy negatív az egyének számára, és társadalom? 'Sok szerencsét hozzá'.

Előfordul, hogy az algoritmusok hamis feltételezéseket tesznek, amelyek az embereket egy olyan visszhangkamrába / hirdetésmegjelenítő rendszerbe helyezik, amely valójában nem megfelelő számukra. Egy amerikai kormányzati szervezet mérnöke panaszkodott: „Néhány munka könnyebbé válik, de a profilalkotás is. Engem személy szerint gyakran tévesen azonosítanak egy faji típusként, politikai pártként stb., Nemem, lakcímem, karrierem stb. Szerint, és reklámokkal és spamekkel bombáznak az adott személy számára. Ha nyitott közösségi profilommal rendelkeznék, akkor is lenne ilyen luxusom - vagy most minden „egyezne” azzal a cikkel, amelyet legutóbb olvastam ”?

Egy névtelen válaszadó ezt írta: „Az egyik fő kérdés az, hogy az algoritmusok fokozott használata mennyiben ösztönzi az embereket viselkedésmódú gondolkodásmódra, mint ingerekre és válaszokra képes lények, akiket játékra és bökésre képesek alkotni, nem pedig mint bonyolult entitásokat, amelyek fantáziával és képességekkel rendelkeznek. gondolat? Lehetséges, hogy az algoritmus-izációs hullám új vitákat indít el arról, hogy mit jelent embernek lenni, és hogyan kell bánni más emberekkel. Philip K. Dick még soha nem volt ilyen releváns ”.

Evan Selinger, a Rochesteri Műszaki Intézet filozófia professzora azt írta: 'Minél több algoritmikus tanácsadás, algoritmikus döntéshozatal és algoritmikus művelet történik a nevünkben, annál inkább kockáztatjuk, hogy elveszítsünk valami alapvető dolgot emberiségünkben. De mivel az „emberiség” vitatott fogalom, nehéz meggyőző esetet felhozni arra nézve, hogy valójában mikor és hogyan csökken az emberiségünk, és hogy az egyes fogyatkozások mekkora kárt okoznak. Csak akkor lehet szilárd választ adni, ha ezekre a kérdésekre vonatkozóan jobb kutatás áll rendelkezésre.

Az algoritmusok manipulálják az embereket és az eredményeket, sőt „gondolatainkat olvassák”

A válaszadók félelmüket vallották attól, hogy a hatalmas érdekek milyen könnyen manipulálhatják az embereket és az eredményeket a hálózatba szervezett intelligencia és eszközök megtervezése révén.

Michael Kleeman, a Kaliforniai Egyetem-San Diego főmunkatársa megjegyezte: 'Azok a kezek, akik ezeket az eszközöket használnák az ellenőrzéshez, az eredmények fájdalmasak és károsak lehetnek'.

A fenyegetés a szabadságot jelenti.
Peter Levine

Peter Levine, a Tufts Egyetem Tisch Polgári Főiskolai Karának professzora és tudományos dékánja megjegyezte: 'Ami engem foglalkoztat, az a kormányok és a nagyvállalatok képessége, hogy információkat gyűjtsenek és betekintést nyerhessenek az egyénekbe, és amelyek segítségével befolyásolhatják ezeket az egyéneket. túl finomak ahhoz, hogy észrevegyék vagy ellensúlyozzák őket. A fenyegetés a szabadságot jelenti ”.

Szabadúszó újságíróMary K. Prattkommentálta: 'Az algoritmusok képesek úgy alakítani az egyének döntéseit, hogy ezt nem is tudják, igazságtalan hatalmi helyzetet adva azoknak, akik irányítják az algoritmusokat (annak felépítésében és telepítésében). Tehát bár ez a technológia nagyon sok területen segíthet, elveszi az egyéni döntéshozatalt anélkül, hogy sokan észrevennék ”.

Martin Shelton, A The Coral Project + New York Times munkatársa, a Knight-Mozilla OpenNews munkatársa azt írta, hogy a 'Peoples' értékei tájékoztatják az algoritmusok tervezéséről - milyen adatokat fognak használni, és hogyan fogják felhasználni az adatokat. Túl gyakran látjuk, hogy az algoritmusok reprodukálják a tervezők elfogultságát azáltal, hogy az összetett, kreatív döntéseket heurisztikán alapuló egyszerű döntésekké redukálják. Ezek a heurisztikák nem feltétlenül kedveznek a velük kapcsolatba lépő személynek. Ezek a döntések általában arra késztetik a szoftveralkotókat, hogy ne a minőségi tapasztalatokra optimalizáljanak, hanem az átkattintási arányra, az oldalmegtekintésekre, az oldalon töltött időre vagy a bevételre. Ezek a tervezési döntések azt jelentik, hogy az algoritmusok (néha elég rosszul elhelyezkedő) heurisztikákat használnak annak eldöntésére, hogy mely hírek érdekelhetnek minket; emberek, akikkel kapcsolatba kellene lépnünk; termékek, amelyeket meg kell vásárolnunk ”.

Chris Showellaz ausztráliai székhelyű független informatikai kutató elmondta: 'Az algoritmust fejlesztő szervezet jelentős képességekkel képes befolyásolni vagy mérsékelni az algoritmus kimenetére támaszkodók viselkedését. Két aktuális példa: az online piactereken megjelenített folyamat manipulálása és a „titkos” algoritmusok használata a szociális jóléti kedvezményezettek értékelésében. Az elkövetkező években sokan mások lesznek. Még a jól képzett felhasználók számára is nehéz lesz megérteni, hogyan értékelheti őket egy algoritmus, vagy hogyan manipulálhatja viselkedésüket. A hátrányos helyzetű és rosszul képzett felhasználók valószínűleg teljesen védelem nélkül maradnak ”.

ÍróJames Hintonmegjegyezte: 'Az a tény, hogy az internet algoritmusok révén szinte gondolataink olvasására használható, azt jelenti, hogy azoknak, akik hozzáférnek az algoritmusokhoz és adatbázisaikhoz, hatalmas lehetőségük van nagy népességcsoportok manipulálására. A Facebook által folytatott sokat emlegetett „kísérlet” annak eldöntésére, hogy képes-e az embereket érzelmileg manipulálni a hírcsatornák szándékos manipulálása révén, csak egy példa mind a hatalom, mind az etika hiányára, amely megmutatható.

Egy tanácsadó cég névtelen elnöke azt mondta: 'A LinkedIn megpróbál manipulálni engem, hogy kihasználhassam kapcsolataim kapcsolatait és még sok minden mást. Ha mindenki szándékosan használja vagy manipulálja egymást, akkor elfogadható-e? Látnunk kell őszintébb, bizalomépítő újításokat, és kevesebb huncut vállalati manipulatív tervezési trükköt. Valaki azt mondta nekem, hogy egyszer csak a gazdag embereknek nem lesz okostelefonjuk, ami arra utal, hogy napjainkban az idő visszavásárlása hamarosan a minőségi életmód kulcsává válik az információs túlterhelés korában. Milyen áron és milyen 'bevált módszerekkel' használjuk fel a napi megtérült időnket? Az általános kérdés az, hogy a jó vagy a rossz magatartás uralkodik-e globálisan. Ez a tanácsadó azt javasolta: 'Amint az emberek megértik, hogy mely algoritmusok manipulálják őket a vállalati bevételek növelése érdekében, anélkül, hogy a felhasználóknak hasznot húznának, őszintébb algoritmus-rendszereket fognak keresni, amelyek a lehető legtisztességesebben osztják meg az előnyöket. Amikor világszerte mindenki online, akkor további 4 milliárd fiatal és szegény tanuló fog internetezni. Egy rendszer vírusszerűvé válhat, és a mikrokifizetések alapján billió éves bevételt nyerhet a puszta mennyiség miatt. Példa: A Facebook számláló alkalmazás eltávolítja a Facebook manipulatív aspektusait, lehetővé téve a felhasználók számára, hogy visszatérjenek a tipikusabban társas viselkedéshez.

Több válaszadó aggodalmát fejezte ki egy adott iparág - a biztosítók - miatt. Egy névtelen válaszadó megjegyezte: 'Az egészségügyi adatok növekvő migrációja a' big data 'területére potenciálisan lehetővé teszi a rémálom forgatókönyvét.Gattacaírj valódi ”.

Mesterséges intelligenciánk csak annyira jó, amennyire meg tudjuk tervezni. Ha a jelenleg használt rendszerek nem fejlődnek az igényeinkkel, az algoritmusok legjobb esetben haszontalanok, rosszabb esetben károsak.
Mása Falkov

Mása Falkovművész és üvegfújó azt mondta: 'Fontos az algoritmusok mérséklése emberi megítéléssel és együttérzéssel. Már nap mint nap látjuk, hogy a biztosító társaságok megpróbálják-e kicsikarni magukat abból, hogy fizetnek valaki orvosi eljárásáért. Az Egyesült Államokban az egész egészségügyi rendszer egy őrült ház, amelyet jelenleg olyan személyek moderálnak, akik titokban úgy döntenek, hogy fellázadnak a zsarnokság ellen. Azok az orvosok, akik a betegeikért küzdenek a szükséges gyógyszer megszerzéséért, a biztosító társaságok üzemeltetői, akik úgy döntenek, hogy nem tagadják meg a pácienstől a szolgáltatást, saját munkájuk kockázatával. Mesterséges intelligenciánk csak annyira jó, amennyire meg tudjuk tervezni. Ha a jelenleg használt rendszerek nem fejlődnek az igényeinkkel, az algoritmusok legjobb esetben haszontalanok, rosszabb esetben károsak ”.

RendszerépítészJohn Sniadowskimegjegyezte: 'A prediktív modellezés megkönnyíti az életet, de fordítva szűkíti a választásokat, és az egyéneket olyan emberek osztályaiba szorítja, ahonnan nincs menekvés. A prediktív modellezés megállíthatatlan, mert a nemzetközi üzlet már hatalmas pénzügyi előnyöket lát az ilyen technikák alkalmazásával. Erre példa a biztosítás, ahol a nyereség keresése miatt a kockázat már megszűnik, a megosztott kockázatú biztosítás eredeti koncepciója helyett. Az emberek mára földrajzi elhelyezkedésük vagy társadalmi helyzetük miatt válnak biztosíthatatlanná. A prémiumokat az egyénekkel súlyozzák azokon az ellenőrzési döntéseken, amelyek felett az egyén nem rendelkezik kontrollal, ezért nem javíthatja helyzetét.

Ryan Sweeney, az Ignite Social Media elemzési igazgatója így kommentálta: 'Minden ember más, ezért az egészségügyi ellátást körülvevő algoritmus személyre szabhatja a beteg kezelési tervét. Lehetséges továbbá, hogy a biztosító társaság érdekeit szolgálja a beteg felett. ”

Mindez hibás, mégis elkerülhetetlen logikával vezérelt társadalomhoz vezet

Néhányan, akik értékelték az algoritmusok hatásait a következő évtizedben, úgy vélték, hogy megbízhatatlanok, „túlértékesítettek” és „hidegek”, mondván, hogy „hamis benyomást keltenek” a hatékonyságról és „nem könnyen bírálhatók”. Egy névtelen válaszadó azt mondta: 'Nem az algoritmusokkal van a probléma; azt gondoljuk, hogy elegendő adat birtokában bölcsességünk lesz. Az algoritmusokra és az adatokra támaszkodunk, és ez problémás elvárásokhoz vezet. Akkor a dolgok rosszra fordulnak ”.

Az emberek el fogják felejteni, hogy a modellek csak a valóság közelítői.
Jason hong

Jason hong, a Carnegie Mellon Egyetem docense elmondta: 'Az emberek el fogják felejteni, hogy a modellek csak a valóság közelítői. A szemét be, a szemét ki régi mondása továbbra is érvényes, de a puszta adatmennyiség és a számítógépek sebessége hamis benyomást kelthet a helyességről. Triviális példaként vannak olyan történetek, amikor az emberek túlságosan követik a GPS-t, és végül a folyóba hajtanak ”.

Egy névtelen informatikus PhD megjegyezte: „Az algoritmusoknak általában nincs elegendő tapasztalati alapja, de a felhasználók nagyobb bizalmat kapnak. Túlértékesítik őket, és képességeiken túli szerepekben telepítik őket ”.

Bob Frankston,Az internetes úttörő és a szoftverinnovátor azt mondta: 'Az algoritmusok negatívumai felülmúlják a pozitívumokat. Továbbra is mágikus gondolkodás létezik, feltételezve, hogy ha az emberek nem lépnek közbe, akkor a „helyes dolog” megtörténik. Azok a modern aranyhibák, amelyek feltételezik, hogy az aranyat pénznemként használják, megakadályozzák az emberek beavatkozását. Az algoritmusok az új arany, és nehéz megmagyarázni, miért azátlagosA „jó” ellentmond az egyes „jónak”. ”

Egy névtelen válaszadó megjegyezte: „Az algoritmusok átlátszatlanok és nem könnyen kritizálhatók. Az emberek túl könnyen hiszik el, hogy tudományosak. Egészségügy - nincs egyetlen olyan tanulmány, amely klinikai javulást mutatna az elektronikus egészségügyi nyilvántartás használatához képest, és a költségek megtakarítása helyett növelte azokat. Az oda kerülő források vannak olyan források, amelyek nem tartoznak a betegellátásba. Fogyasztói választás - csak azt látjuk, amit láthatunk bármilyen piacon, ahová szegmentálódtunk. Ahogy ez a szegmentáció növekszik, a választásaink csökkennek. A vállalati konszolidáció szintén csökkenti a választási lehetőségeket. Hasonlóképpen hírek, lehetőségek, hozzáférés. A nagy adatok hasznosak lehetnek - például a járványok nyomon követése -, de pusztítóak is lehetnek, mert óriási különbség van az egyének és a statisztikai személy között. Nem a szociálpolitikát kellene csak a statisztikai átlag alapján, hanem ehelyett a teljes népességre tekintettel építeni. Ezért hajlamos vagyok azt hinni, hogy a nagy adatok eljutnak a Jupiterhez, ez segíthet megbirkózni az éghajlatváltozással, de nem növeli az igazságosságot, a tisztességet, az erkölcsöt és így tovább.

B. Remy Cross, a Missouri Webster Egyetem szociológiai adjunktusa elmondta: 'Különösen az algoritmusok hajlamosak egyfajta tehcno-fetisizmusra, ahol tökéletesen elfogulatlannak és felettébb logikusnak tekintik őket, amikor gyakran semmilyenek'.

Egy névtelen technológiai fejlesztő ezt kommentálta: „Az algoritmusok túlbecsülik az emberek meggyőződésének bizonyosságát. A legtöbb ember eléggé kívánatos, de az algoritmusok megpróbálják meghatározni Önt az érzések / hiedelmek becslésével. Ha valami „tetszik” nekem, akkor hajlamos vagyok a dolog lelkes szerelmeseivel csoportosulni ”.

Egyesek szerint a végleges digitális logika auráját már nehéz leküzdeni. Egy névtelen szoftverbiztonsági tanácsadó sajnálta, hogy nincsenek gyors és tisztességes fellebbezési eljárások az automatizált döntésekhez. 'A hibás beszámoló kijavítása már szinte lehetetlen, annak ellenére, hogy világos törvények léteznek, amelyek ehhez támogatást igényelnek. Valószínűtlennek tűnik, hogy a hasonló problémákat a jövőben könnyű lesz orvosolni, hacsak az ilyen rendszerek körül jelentős szabályozás nem kerül bevezetésre. Remélem, hogy az előnyök jelentősek lesznek, de arra számítok, hogy a hátrányok sokkal nyilvánvalóbbak és könnyebben észrevehetők, mint a hátrányok.

Néhány válaszadó szerint az emberi vezetők figyelmen kívül hagyják az emberek igényeit, vagy inkább felügyelet nélkül hagyják őket, mivel a gépi intelligencia több feladatot átvesz. Egy névtelen résztvevő megjegyezte: „Az algoritmusok használata távolságot teremt a vállalati döntéseket meghozóktól és a tényleges döntéstől. Ez annak elfogadható tagadhatóságát eredményezi, hogy a menedzser nem ellenőrizte aktívan az algoritmus kimenetelét, és ennek következtében nem felelős az eredményért, ha az a lakosságot vagy a munkavállalókat is érinti.

Egy másik névtelen résztvevő azt írta: „Ezek hátrányai azok a helyzetek, amelyek nem felelnek meg a szokásos kritériumkészletnek, vagy ítélethívásokkal járnak - a nagy rendszerek nem kezelik jól a kivételes helyzeteket, és általában meglehetősen rugalmatlanok és bonyolultak az eligazodás. Nagyon sok problémát látok a szolgáltatók és az általuk kiszolgált közönség közötti kapcsolatokban az empátia és az alapvető interakció hiánya miatt. Nehéz megtervezni az emberek tapasztalatait, amikor az általunk tervezett emberek átélt tapasztalata idegen a saját tapasztalati paradigmájától.

Egy névtelen informatikus azt írta: „A technológiai ipar a számítógépes logikára van hangolva, nem az érzésekre vagy az etikai eredményekre. Az ipari „termelékenység” paradigmája elfogy a hasznosságból, és szükségünk van egy újra, amely több emberi aggodalomra összpontosít ”.

James McCarthy, egy menedzser, megjegyezte: 'Néha olyan dolgok történnek, amelyeket még egy kellően összetett szabály sem tud elszámolni, és attól tartok, hogy az algoritmikus döntéshozataltól való függőségünk növelése a társadalom és az emberi viselkedés egyre reduktívabb nézetét is létrehozza. '.

Egy névtelen válaszadó azt mondta: 'Egy algoritmus csak annyira jó, mint a szűrő, amelyet átadnak, és az értelmezés. Túl gyakran algoritmusokat veszünk a tények alapjául, vagy megegyezünk egy statisztikával, ami nem az. Ezek az információk gyűjtése a tantárgyakba. Az erre való túlzott támaszkodás és annak mibenlétének téves értelmezése gondot okoz a következő évtizedben ”.

Egyesek attól tartanak, hogy az emberek elveszíthetik a kifinomult döntéshozatali képességeket és a helyi intelligenciát

Az internet széles körű elterjedésének kezdetei óta egyesek aggodalmukat fejezték ki amiatt, hogy az intelligencia algoritmusokon keresztüli bővítésétől való gyors függőség az embereket kevésbé képes önmagukra gondolni. Néhány válaszadó ebben az elbírálásban megjegyezte, hogy ez valószínűleg negatív hatással lesz az egyén képességeire.

Amali De Silva-Mitchellfuturista és tanácsadó írta: „A prediktív modellezés korlátozni fogja az egyéni önkifejezést, így az innovációt és a fejlődést. Egy kanállal táplált lakosságot fog megművelni, az elitben lévők lesznek az újítók. A tömeg komplex döntéshozatali képességei veszíteni fognak. Királyok és jobbágyok lesznek, elveszik a diverzifikáció lehetősége, majd elveszik a globális innovatív megoldások lehetősége is. Ezeknek a rendszereknek a költségei túl magasak ahhoz, hogy felboruljanak, ha alapszintre épülnek. Az egyenruha jelenlegi tendenciája inkább a visszavonás, semmint olyan platformok felépítése lesz, amelyek képesek kommunikálni mindennel, így az innováció kulcsfontosságú marad, és az emberek a legjobb lehetőségeket kaphatják meg. Az algoritmusok nem a kérdés, hanem a kérdés egy standard algoritmus ”.

Az automatizált döntéshozatal csökkenti a kritikus gondolkodás és a problémamegoldás érzékelt igényét.

Egy névtelen válaszadó elmondta: „Az automatizált döntéshozatal csökkenti a kritikus gondolkodás és a problémamegoldás érzékelt igényét. Aggódom, hogy ez növeli a tekintélybe vetett bizalmat és átláthatatlanabbá teszi a mindenféle döntéseket ”.

Dave McAllister, a Philosophy Talk igazgatója elmondta: 'Magunkat automatikusan algoritmusok szerint osztályokba (kasztrendszerbe) csoportosítjuk. Bár növelheti, hogy hatékonyan találjuk meg a szükséges információkat, miközben fulladunk a nagy adatok világában, korlátozza a szintézis és a sokféle felfedezés körét is.

Giacomo Mazzoneazt írta: 'Sajnos a következő 10 évben előállított algoritmusok nagy része olyan globális vállalatoktól származik, amelyek azonnali profitot keresnek. Ez megöli a helyi intelligenciát, a helyi készségeket, a kisebbségi nyelveket, a helyi vállalkozói szellemet, mert a rendelkezésre álló források nagy részét a globális versenytársak fogják elszívni. A „jobb életminőségért felelős algoritmusokért felelős miniszter” létrehozásának napja valószínűleg késő lesz, hacsak nem jelennek meg a társadalmi megosztott gazdaság új formái, amelyek a „boldogság algoritmusain” dolgoznak. De ez valószínűleg 10 évnél tovább tart ”. .

Jesse Drew, a kaliforniai Davis Egyetem digitális média professzora azt válaszolta: 'Természetesen az algoritmusok hatékonyabbá tehetik az életet, de hátránya az emberi gondolkodási minták gyengülése, amelyek a szerendipitásra és a kreativitásra támaszkodnak'.

Ben Railton, a massachusettsi Fitchburg Állami Egyetem angol és amerikai tanulmányainak professzora azt írta: „Az algoritmusok mind digitális kultúránk, mind a 21. századi kapitalizmus egyik legkevésbé vonzó részei. Nem engedik meg az egyéni identitást és perspektívát. Ehelyett azokra a kategorizálásokra és sztereotípiákra támaszkodnak, amelyeken túl kell lépnünk. '

Miles Fidelman, a rendszerépítész, szakpolitikai elemző és a Civic Networking elnöke elnöke azt írta: 'Az eszközök összességében aránytalanul előnyösek lesznek azok számára, akiknek kereskedelmi oka van fejlesztésükre - mivel motivációjuk és erőforrásuk lesz az eszközök gyorsabb fejlesztésére és telepítésére' .

Az egyik válaszadó figyelmeztetett az algoritmusok erőteljesebb alkalmazásának motivációira, ami korlátozni fogja a véleménynyilvánítás szabadságát.Joe McNamee, az Európai Digitális Jogok ügyvezető igazgatója így kommentálta: „A Cambridge / Sanford tanulmányai a Facebook like-okról, a Facebook hangulatkísérlet, a Facebook választási részvételi kísérlete és a Google választások befolyásolására való képességének elemzése hozzáadta az online vállalatok részvételének igényét. a rendészeti online beszédben. Mindez egzisztenciális kérdéseket vet fel a demokrácia, a szólásszabadság és végső soron a társadalom fejlődési képessége miatt. A „hasznos” előnyök köre széles és érdekes, de nem tudja ellensúlyozni ezt a lehetséges költséget ”.

A megoldásoknak tartalmazniuk kell az egyén iránti tisztelet beágyazását

Az algoritmusok adatokat igényelnek és hoznak létre. Az internetes gazdaság nagy részét olyan csoportok építették, amelyek az online eszközök „ingyenes” használatát és az ismeretekhez való hozzáférést kínálják, miközben minimalizálják vagy elfedik azt a tényt, hogy az emberek valóban figyelemmel és / vagy hűséggel fizetnek, valamint teljes algoritmikus hozzáférést biztosítanak az összes eszközhöz. személyes adataik, valamint egyre invazívabb betekintés reményeikbe, félelmeikbe és más érzelmeikbe. Egyesek szerint már eljutott odáig, hogy az algoritmusok mögött álló adatgyűjtők valószínűleg többet tudnak rólad, mint te magad.

A fő hátrány az, hogy az ilyen algoritmusok működéséhez nagyon sokat kell tudniuk mindenki személyes életéről.
Rob Smith

Rob Smith, szoftverfejlesztő és adatvédelmi aktivista, megfigyelte: 'A fő hátrány az, hogy az ilyen algoritmusok működéséhez sokat kell tudniuk mindenki személyes életéről. A versengő szolgáltatások ökoszisztémájában ehhez sok információ megosztására lesz szükség az adott piaccal, ami rendkívül veszélyes lehet. Bízom abban, hogy idővel ki tudjuk dolgozni a kockázat egy részének mérséklését, de kollektív elfogadásra is szükség lenne, hogy adataink egy részét megragadjuk, ha a legjobb szolgáltatásokat szeretnénk igénybe venni. Ezzel talán a legnagyobb hátrányra jutok. Előfordulhat, hogy idővel az emberek - gyakorlati szempontból - nem tudnak kilépni az ilyen piactérektől. Lehet, hogy felárat kell fizetniük a régimódi szerződéses szolgáltatásokért. Összefoglalva, az ilyen megközelítések képesek javítani az ügyeken, legalábbis a társadalom viszonylag gazdag tagjai és esetleg a hátrányos helyzetűek számára. De az ára magas, és fennáll annak a veszélye, hogy a dolgokba sétálunk anélkül, hogy észrevennénk, mibe került nekünk ”.

David Adams, egy új startup termék-alelnöke azt mondta: 'A szellemi tulajdon túlterjedése általában nagy problémát jelent a jövőnkben'.

Egyes válaszadók szerint kulcsfontosságú az egyének identitásukhoz való jogának és ellenőrzésének biztosítása.Garth Graham, a Telecommunities Canada igazgatósági tagja, ezt írta: 'A jövőbeni pozitívumok csak akkor fogják felülmúlni a negatívumokat, ha önmagam szimulációja - a viselkedésem előrejelzése -, amelyet az algoritmusok lehetővé tesznek, tulajdonosa vagyok, függetlenül attól, hogy ki hozta létre'.

Paul Dourish, a kaliforniai Irvine Egyetem kancellár informatikai professzora elmondta: 'Többet kell tenni azért, hogy az emberek betekintést nyerhessenek az algoritmikus feldolgozásba és ellenőrizzék azokat - ide tartozik az algoritmusok használata, amelyek az egyének nevében, nem pedig a vállalatok nevében működnek'.

Marshall Kirkpatrick, a Little Bird társalapítója, korábban a ReadWriteWeb és a TechCrunch munkatársaival együtt, azt mondta: 'A legtöbb kereskedelmi szervezet úgy dönt, hogy olyan algoritmusokat valósít meg, amelyek még alkotóik rovására is szolgálják őket. De egyesek a felhasználókat részesítik előnyben, és ezek nagyon nagyok lesznek. A felmerülő lehetőségek töredékének való megfeleléshez a képzelet hatalmas kiterjesztésére lesz szükség ”.

Susan Price, a Continuum Analytics digitális építésze és stratégája megjegyezte: 'Az adatok átlátható eredete, valamint az algoritmusok és az elemzések átlátható rendelkezésre állása kulcsfontosságú lesz a bizalom és a párbeszéd megteremtéséhez, amely szükséges ahhoz, hogy ezek a rendszerek tisztességesek és viszonylag elfogulatlanok legyenek. Ez a szükséges átláthatóság ellentmond a szellemi tulajdonban és a marketingben egyedülálló értéket fejlesztő vállalatok céljainak. A legnagyobb kihívás az, hogy az embereket összehangoljuk azzal, amit közösen remélünk, hogy az adataink a jövőben megmutatják - olyan célok létrehozása, amelyek tükrözik a tisztességes, produktív társadalmat, majd olyan rendszerek, amelyek ezeket a célokat mérik és támogatják ”.

Az egyik válaszadó javasolta, hogy az algoritmus-író csoportok humanista gondolkodókat foglaljanak magukba.Dana Klisanin, az Evolutionary Guidance Media R&D alapítója és vezérigazgatója azt írta: 'Ha fel akarjuk mérni az algoritmusok használatának egyénekre és társadalomra gyakorolt ​​általános hatását a' pozitívan felülmúlják a negatívat ', akkor a nagyvállalatoknak felelősségre kell vonniuk magukat vállalati növekedésük révén. társadalmi felelősség. Ahelyett, hogy a bevétel lenne az egyetlen megtérülés, filozófusokat, etikusokat és pszichológusokat kell felvenniük, hogy segítsenek nekik olyan algoritmusok létrehozásában, amelyek az egyének, a társadalom és a bolygó javát szolgálják. A legtöbb egyén soha nem vett részt a „faj, osztály és nem” szakon, és akkor sem ismeri el a diszkriminációt, ha az burjánzó és látható. Az algoritmusok rejtett jellege azt jelenti, hogy az egyéneknek és a társadalomnak sokkal tovább kell tartania az átláthatóság követeléséhez. Vagy, hogy másképp mondjam: nem tudjuk, amit nem tudunk ”.

Egy névtelen válaszadó, aki az Egyesült Államok kormányának dolgozik, a társadalmi javak és az egyén jogainak szolgálatában rejlő nehézségeket idézte: „Feszültség van az egyének kívánságai és a társadalom funkciói között. Az egyének tisztessége egyes egyéni döntések rovására megy. Nehéz tudni, hogyan kerülnek az algoritmusok a spektrumba az egyének előnyben részesítése szempontjából a működő társadalommal szemben, mert az algoritmusok iránya a mesterséges intelligencia felé mutat. Az AI valószínűleg nem fog ugyanúgy működni, mint az emberi intelligencia.

Amint a kód átveszi a bonyolult rendszereket, az emberek kimaradnak a hurokból

Amint az intelligens rendszerek és a tudáshálózatok bonyolultabbá válnak, és a mesterséges intelligencia és a kvantumszámítás a következő évtizedben fejlődik, a szakértők arra számítanak, hogy az emberek egyre többször maradnak „a hurokból”, mivel a kód létrehozásának és karbantartásának egyre több aspektusa kerül átvételre gépi intelligencia által.

A legtöbb ember egyszerűen elveszíti az ügynökséget, mivel nem érti, hogyan válnak a számukra döntések.

Az ezzel kapcsolatos észrevételek túlnyomó többsége szakértő válaszadóktól származott, akik névtelenek maradtak. Mintavétel ezekből az állításokból:

A nyílt forráskódú szoftverszervezet ügyvezető igazgatója megjegyezte: 'A legtöbb ember egyszerűen elveszíti ügynökségét, mivel nem érti, hogy miként készülnek számukra a döntések'.

Az egyik válaszadó azt mondta: 'Minden' egyedi 'lesz, az algoritmusok csoportgondolása alapján; a szabad gondolkodás és a kritikus gondolkodás megsemmisítése biztosítja, hogy a legjobb generáció teljesen az uralkodó osztálynak legyen alárendelve ”.

Egy másik válaszadó azt írta: „A jelenlegi rendszereket arra tervezték, hogy hangsúlyozzák az adatok és algoritmusok összegyűjtését, koncentrálását és felhasználását viszonylag kevés olyan nagy intézményben, amely nem tartozik felelősséggel senki előtt, és / vagy ha elméletileg elszámoltathatók, olyan nehéz felelősségre vonni, hogy gyakorlatilag senki számára sem elszámolható. Az adatok és a tudás ilyen koncentrációja a megfigyelés és az elnyomás új formáját hozza létre (nagy írás). Antitetikus és aláássa az Egyesült Államok Alkotmányában és jelenlegi politikai-gazdasági-jogrendszerünkben rögzített egykori társadalmi forma teljes hátterét. Csak azért, mert az emberek nemlátez nem azt jelenti, hogy nem, vagy hogy nem ássa alá társadalmi struktúráinkat. Ez. Csak súlyosbodni fog, mert nincs 'válság', amire reagálni lehetne, és ezért nemcsak motiváció a változásra, hanem minden ok arra, hogy tovább tartsuk - különösen az érintett hatalmas érdekek által. Rémálom felé tartunk ”.

Egy tudományos szerkesztő megjegyezte: „A rendszer győzni fog; az emberek elveszítik. Nevezzük „Az önző algoritmusnak”; az algoritmusok természetesen megtalálják és kihasználják a beépített viselkedési kényszereket saját céljaikra. Már nem is vagyunk fogyasztók. Mintha ez már nem volt elég megalázó, mindennapos megfigyelni, hogy manapság az emberek a termék. Az „algoritmusok” növekvő használata csak nagyon gyorsan felgyorsítja ezt a tendenciát. A Web 1.0 valójában nagyon izgalmas volt. A Web 2.0 több kényelmet nyújt azoknak az állampolgároknak, akiknek haza kell utazniuk, ugyanakkor - és naivitás azt gondolni, hogy ez egybeesés - ez egyúttal a Végidők pénzzé tett, testesített, ellehetetlenítő, kannibalizáló hírnöke is. (Túlzom a hatást. De nem sokat '.)

Egy magas rangú informatikai elemző elmondta: 'A legtöbb ember az algoritmusokat eszközként használja, és a jövőben is használni fogja, nem értve a belsőjét. Fennáll annak a veszélye, hogy elveszítjük megértésünket, majd elveszítjük a képességünket a nélkülözésre. Akkor bárki, aki ilyen helyzetben van, hagyja, hogy a robotok döntsenek ”.

Mi történik, ha az algoritmusok algoritmusokat írnak? 'A múltban algoritmusokat egy programozó hozott létre' - magyarázta egy névtelen válaszadó. 'A jövőben valószínűleg intelligens / tanuló gépek fejlesztik őket. Lehet, hogy nem is értjük, honnan jöttek. Ez az alkalmazástól függően lehet pozitív vagy negatív. Ha a gépek / programok autonómiával rendelkeznek, ez inkább negatív, mint pozitív. Az emberek elveszítik ügynökségüket a világon ”.

És akkor lehetőség van egy AI átvételére.

Seti gershberg, az Arizona Studios ügyvezető producere és kreatív igazgatója ezt írta: „Eleinte a váltás nettó haszonnal jár. De amikor az AI elkezdi teljesíteni a Turing-tesztet, és érzővé válhat, és valószínűleg szuperintelligens lesz, ami intelligencia-robbanáshoz vezet, ahogyan Vernor Vinge leírta, lehetetlen megmondani, mit fognak vagy nem fognak tenni. Ha szimbiotikus kapcsolatot tudunk kialakítani az AI-vel, vagy egyesülhetünk velük, hogy új ember-gép fajokat hozzunk létre, akkor valószínűleg az emberek élnék túl egy ilyen eseményt. Ha azonban nem hozunk létre okot arra, hogy az AI-nek emberre lenne szüksége, akkor vagy figyelmen kívül hagynának minket, vagy kizárnának, vagy olyan célra használnának fel, amelyet el sem tudunk képzelni. A közelmúltban a Microsoft vezérigazgatója felsorolta a mesterséges intelligenciára és az emberekre vonatkozó 10 szabály listáját, amelyet programozásuk és viselkedésük tekintetében be kell tartaniuk, mint módszert a jövőben mind az ember, mind a gépek számára pozitív eredmény elérésére. Ha azonban az emberek maguk sem tudják betartani a jó magatartás és a pozitív társadalom számára előírt szabályokat (azaz a tízparancsolatot - nem vallási értelemben, hanem a józan ész szerint), akkor feltenném a kérdést, miért követné vagy kellene az AI-t követni a szabályokat az emberek rájuk kényszerítenek '?