Waarom stoppen met AI-onderzoek als we al weten hoe we het veiliger kunnen maken

vorige week , Het Future of Life Institute heeft een open brief gepubliceerd waarin wordt voorgesteld de “gevaarlijke” AI-race met zes maanden uit te stellen. Het is sindsdien ondertekend door meer dan 3.000 mensen, waaronder enkele invloedrijke leden van de AI-gemeenschap. Maar hoewel het goed is dat de gevaren van AI-systemen binnen en buiten de samenleving inzicht krijgen, zijn zowel de geschetste kwesties als de acties die in de brief worden voorgesteld onrealistisch en onnodig.

De oproep om het werk van AI te stoppen is niet alleen vaag, maar ook nutteloos. Hoewel het trainen van grote taalmodellen door bedrijven met winstoogmerk de meeste aandacht krijgt, is dit niet het enige type AI-werk dat wordt gedaan. AI-onderzoek en -praktijk vinden inderdaad plaats in bedrijven, de academische wereld en in Kaggle-wedstrijden over de hele wereld over veel onderwerpen, variërend van efficiëntie tot veiligheid. Dit betekent dat er geen magische knop is waarop iemand kan drukken om “gevaarlijk” AI-onderzoek te stoppen en alleen het “veilige” soort toe te staan. En de risico’s van kunstmatige intelligentie die in de brief worden genoemd, zijn allemaal hypothetisch, gebaseerd op een al lang bestaande mentaliteit die de neiging heeft om echte problemen over het hoofd te zien, zoals algoritmische discriminatie en voorspellend politiewerk, die nu individuen schaden, ten gunste van potentiële existentiële risico’s voor de mensheid.

In plaats van ons te concentreren op de manieren waarop AI in de toekomst zou kunnen mislukken, zouden we ons moeten concentreren op het duidelijk definiëren van succes voor AI in het heden. Dit pad is heel duidelijk: in plaats van het onderzoek stop te zetten, moeten we de transparantie en verantwoording verbeteren terwijl we richtlijnen ontwikkelen voor de inzet van AI-systemen. Beleids-, onderzoeks- en gebruikersinitiatieven in deze richting bestaan ​​al tientallen jaren in verschillende sectoren en we hebben al concrete voorstellen om mee aan de slag te gaan om de huidige risico’s van AI aan te pakken.

Regelgevende autoriteiten over de hele wereld stellen al wetten en protocollen op om het gebruik en de ontwikkeling van nieuwe AI-technologieën te beheren. De Algorithmic Accountability Act van de Amerikaanse Senaat en soortgelijke initiatieven in de Europese Unie en Canada zijn enkele van de initiatieven die helpen bepalen welke gegevens wel en niet kunnen worden gebruikt om AI-systemen te trainen, auteursrecht- en licentiekwesties aan te pakken en de speciale overwegingen te beoordelen die nodig zijn om AI te gebruiken. in risicovolle omgevingen. Een belangrijk onderdeel van deze regels is transparantie: de makers van AI-systemen verplichten om meer informatie te geven over technische details, zoals de bron van de trainingsgegevens, de code die wordt gebruikt om de modellen te trainen en hoe functies zoals beveiligingsfilters moeten worden geïmplementeerd. Ontwikkelaars van AI-modellen en hun gebruikers kunnen deze inspanningen ondersteunen door met hun vertegenwoordigers in gesprek te gaan en te helpen bij het opstellen van wetgeving rond de hierboven beschreven vragen. Onze gegevens worden immers gebruikt en ons levensonderhoud wordt aangetast.

Maar alleen het beschikbaar stellen van dit soort informatie is niet voldoende. Bedrijven die AI-modellen ontwikkelen, moeten ook externe audits van hun systemen toestaan ​​en verantwoordelijk worden gehouden voor risico’s en tekortkomingen als ze worden geïdentificeerd. Veel van de nieuwere AI-modellen zoals ChatGPT, Bard en GPT-4 zijn bijvoorbeeld ook de meest restrictieve, alleen beschikbaar via een API of beperkte toegang die volledig wordt beheerd door de bedrijven die ze hebben gemaakt. Dit maakt ze in feite tot zwarte dozen waarvan de output van dag tot dag kan veranderen of verschillende resultaten kan opleveren voor verschillende mensen. Hoewel er enkele door het bedrijf goedgekeurde rode sets zijn voor tools zoals GPT-4, kunnen onderzoekers geen toegang krijgen tot de platforms, waardoor wetenschappelijke analyse en beoordelingen onmogelijk worden. Dit druist in tegen benaderingen voor het controleren van AI-systemen die zijn voorgesteld door wetenschappers zoals Deborah Ragge, die pleiten voor een overzicht in verschillende stadia van het modelontwikkelingsproces, zodat risicovol gedrag en schade worden gedetecteerd voordat modellen in de gemeenschap worden ingezet.

Een andere belangrijke stap op weg naar veiligheid is om collectief opnieuw na te denken over de manier waarop we AI maken en gebruiken. AI-ontwikkelaars en onderzoekers kunnen beginnen met het opstellen van regels en richtlijnen voor AI-praktijken door te luisteren naar veel individuen die al jaren pleiten voor meer ethische AI. Dit omvat onderzoekers zoals Timnit Gebru, die een ‘langzame AI’-beweging voorstelde, en Ruha Benjamin, die het belang benadrukte van het opstellen van ethische AI-richtlijnen tijdens haar keynote-presentatie op een recente AI-conferentie. Communautaire initiatieven, zoals de Code of Ethics geïmplementeerd door de NeurIPS-conferentie (een inspanning die ik voorzit), maken ook deel uit van deze beweging, gericht op het opstellen van richtlijnen over wat acceptabel is met betrekking tot AI-onderzoek en hoe de bredere implicaties ervan voor de samenleving kunnen worden overwogen .

Kommentar veröffentlichen

Neuere Ältere

نموذج الاتصال