technologie

Uitroeiing van racisme in het rechtsstelsel van de VS wil met de hulp van AI

Vanaf 1 juli dit jaar naar het rechtssysteem van de stadSan Francisco (VS) is, hoewel alleen in de vorm van een experiment, van plan de praktijk van het gebruik van kunstmatige intelligentie te introduceren om officieren van justitie te helpen de waarschijnlijkheid van racistische vooroordelen uit te sluiten wanneer ze aangeklaagd worden door een verdachte, aldus The Verge.

Kunstmatige intelligentie in het rechtsstelsel

Zoals gemeld in het kantoor van de officier van justitieSan Francisco, de taak van het systeem zal niet alleen zijn om politierapporten te analyseren en automatisch gegevens van hen te verwijderen, die kunnen worden gebruikt om de race van de verdachte te bepalen (kleur van ogen, haar, huid), maar ook gegevens over zijn omgeving (familieleden, vrienden buren, enzovoort), wat ook indirect kan betekenen dat de verdachte tot een bepaald ras behoort. Bovendien verwijdert de AI de namen en gegevens van getuigen en politieagenten uit de rapporten om factoren uit te sluiten die de onpartijdigheid van de openbare aanklagers kunnen beïnvloeden.

"Als je kijkt naar het contingent van gevangenen in de Verenigde Staten, dan kan worden opgemerkt dat er meer mannen en vrouwen in kleur zijn dan blanken", zegt San Francisco District Attorney George Gascon.

Het zien van dezelfde verdachte naam, bijvoorbeeldHernandez, onderzoekers kunnen onmiddellijk concluderen dat de persoon van Latijns-Amerikaanse afkomst is, en dit kan op zijn beurt de uitkomst en conclusies van het onderzoek beïnvloeden.

Opgemerkt wordt dat in 2017, op verzoek van de wijkProcureur, in San Francisco, onderzocht statistieken over strafzaken. Het bleek dat voor de periode van 2008 tot 2014, 41% van de arrestaties werden gedaan door Afro-Amerikanen. Ze vertegenwoordigden echter slechts 6% van de totale bevolking. Analisten concludeerden vervolgens dat de beslissingen van de rechtbanken "significante raciale en etnische verschillen" zijn.

Gascon legde uit dat eerst de officieren van justitie zullen moetende door het systeem verwerkte politierapporten onderzoeken en op basis daarvan een beslissing nemen over de kosten. Vervolgens kunnen ze het volledige rapport met alle namen en gegevens bekijken om te bepalen of er verzachtende omstandigheden zijn.

Momenteel is het rechtssysteem inSan Francisco gebruikt een veel beperkter handmatige filterprocedure om ervoor te zorgen dat openbare aanklagers deze informatie niet zien. Maar in de regel worden alleen de eerste pagina's uit het rapport verwijderd, die algemene informatie over de verdachte bevatten. In het eigenlijke rapport blijft informatie over een persoon bestaan, daarom is er geen praktische betekenis van een dergelijke steekproef.

"We moesten de technologie voor het leren van machines verbinden met dit werk", merkte Gascon op.

Volgens hem is deze praktijk van het gebruikkunstmatige intelligentie in de Verenigde Staten zal voor de eerste keer worden toegepast. Gascon merkte ook op dat hij geen enkele wetshandhavingsinstantie kende die eerder AI had gebruikt voor dezelfde doeleinden. Hij voegde eraan toe dat technologie eerst in zijn kantoor wordt getest. Als het dan een goed resultaat oplevert, wordt het gratis verstrekt aan alle openbare aanklagers in het land.

Het systeem is ontwikkeld door programmeurs-analisten eningenieurs van het laboratorium voor computerbeleid aan de Stanford University. Volgens een van de auteurs van de ontwikkeling van Alex Choklas-Wood, het is een kleine webapplicatie met behulp van meerdere algoritmen machine learning die automatisch de politie rapporten bewerken, en merkt op bepaalde woorden en ze te vervangen door neutrale, "plaats", "Agent 1", "verdachte "En zo verder.

U kunt het nieuws bespreken in onze Telegram-chat.