yleinen

On aika antaa keinotekoiselle älylle sama suoja kuin eläimillä

Yliopistot ympäri maailmaa viettävät vakaviakeinotekoisen älykkyyden tutkimus. Teknologian jättiläiset kehittävät sitä aktiivisesti. Todennäköisesti hyvin pian meillä on keinotekoinen äly, sen ajattelukyvyssä hiirien tai koirien tasolla. Ja se tarkoittaa, että on aika ajatella, että tällainen keinotekoinen älykkyys tarvitsee eettistä suojelua, jota yleensä annamme eläimille.

Onko tekoäly loukkaantunut?

Tähän mennessä keskusteluissa "AI-oikeuksista" tai"Robottien oikeudet" hallitsivat kysymyksiä siitä, mitkä eettiset velvollisuudet asetettaisiin AI: ille, joilla on inhimillinen tai ylivoimainen tiedustelu - kuten Android Data Star Trekiltä tai Doloresilta Wild West Worldistä. Mutta ajatteleminen tarkoittaa sitä, että aloitamme väärästä paikasta. Ennen kuin luomme ihmisen etiikkaa ansaitsevan inhimillisillä ominaisuuksilla varustetun AI: n, luomme vähemmän monimutkaisen AI: n, joka ansaitsee parhaiten eläinten eettiset oikeudet.

Olemme jo alkaneet olla varovaisia ​​tutkimuksessajoissa on mukana tiettyjä eläimiä. Erityisvaliokunnat arvioivat tutkimusehdotuksia varmistaakseen, että selkärankaisilla eläimiä ei tapeta tarpeettomasti eikä niille aiheudu liiallisia kärsimyksiä. Jos kyseessä ovat ihmisen kantasolut tai ihmisen aivosolut, valvontastandardit ovat vieläkin tiukempia. Biolääketieteellistä tutkimusta harkitaan huolellisesti, mutta AI-tutkimusta, joka voi aiheuttaa joitakin samoja eettisiä riskejä, ei tutkita tällä hetkellä. Ehkä se olisi sen arvoista.

Saatat ajatella, että AI ei ansaitse sellaistaeettinen suojelu, koska sillä ei ole tietoisuutta - se on, koska sillä ei ole todellista kokemusvirtaa, todellista iloa ja kärsimystä. Olemme samaa mieltä. Mutta täällä teillä on vaikea filosofinen kysymys: miten tiedämme, että olemme luoneet jotain, joka kykenee iloon ja kärsimykseen? Jos AI on samanlainen kuin Data tai Dolores, hän voi valittaa ja suojella itseään aloittamalla keskustelun hänen oikeuksistaan. Mutta jos AI ei voi ilmaista sitä hiiren tai koiran tavoin, tai jostain muusta syystä se ei ilmoita meille sisäisestä elämästään, ehkä se ei pysty raportoimaan kärsimyksestä. Mutta kun kaikki koirat voivat iloita ja kärsiä.

Tässä tulee mysteeri ja vaikeus, koskaettä tietoisuuden tieteellinen tutkimus ei ole päässyt yksimielisyyteen siitä, mitä tietoisuus on ja miten kertoa meille, onko se läsnä vai ei. Joidenkin ideoiden mukaan - niin sanottuna liberaalina - tietoisuuden läsnäolosta riittää vain hyvin organisoidun tietojenkäsittelyn prosessi. Saatamme jo olla tällaisen järjestelmän kynnyksellä. Muiden ideoiden mukaan - konservatiivinen - tietoisuus voi vaatia hyvin spesifisiä biologisia toimintoja, kuten nisäkkäiden aivot kaikkialla kirkkaudessaan: ja sitten emme tulleet lähellä luomaan keinotekoista tietoisuutta.

Ei ole selvää, mikä lähestymistapa on oikea. Mutta jos "liberaali" näkemys on totta, me pian luomme monia ihmisen tekoälyjä, jotka ansaitsevat eettisen suojelun. On olemassa moraalinen riski.

Keskustelu "riskin AI: stä" keskittyy yleensäriskit, joita uudet AI-teknologiat saattavat aiheuttaa meille, ihmisille, kuten maailman kaappaaminen ja ihmiskunnan tuhoaminen tai pankkijärjestelmän tuhoaminen. Vähemmän yleisiä ovat eettiset riskit, joita altistamme AI: lle väärän käsittelyn vuoksi.

Kaikki tämä voi tuntua kaukana, mutta sen jälkeenAI-kehitysyhteisön tutkijat pyrkivät kehittämään tietoisia AI-järjestelmiä tai luotettavia AI-järjestelmiä, jotka saattavat lopulta tulla tietoisiksi, meidän on otettava tämä asia vakavasti. Tällaiset tutkimukset edellyttävät eettistä varmennusta, kuten eläinkokeissa ja ihmisen hermokudosnäytteissä.

Eläinkokeiden ja jopa ihmisten tapauksessaasianmukaiset suojelutoimenpiteet toteutettiin vasta vakavien eettisten rikkomusten havaitsemisen jälkeen (esimerkiksi tarpeettomien vivisointien, natsien sotilaallisten lääketieteellisten rikosten ja muiden tapauksessa). AI: n avulla meillä on mahdollisuus saavuttaa enemmän. Saatamme joutua luomaan valvontakomiteoita, jotka arvioivat huippuluokan AI-tutkimusta näiden kysymysten valossa. Tällaisten komiteoiden tulisi kuulua paitsi tiedemiesten lisäksi myös AI-suunnittelijoita, kognitiivisia, eettisiä asiantuntijoita ja kiinnostuneita ihmisiä. Tällaisten komiteoiden tehtävänä on tunnistaa ja arvioida uudenlaisten ilmakehän suunnittelun eettisiä riskejä.

On todennäköistä, että tällaiset valiokunnat laskevat kaikkiAI-alan nykyinen tutkimus on varsin hyväksyttävää. Useimmissa tapauksissa kukaan ei usko, että luomme AI: n, jolla on tietoinen kokemus, joka ansaitsee eettisen harkinnan. Mutta pian voimme ylittää tämän linjan. On oltava valmiina.

Löydät vielä mielenkiintoisempaa materiaalia Zenissä.