De grote aanklager | Techcrunch

Er zijn goede De reden om niet te vertrouwen op wat AI-constructies je vandaag vertellen, heeft niets te maken met de fundamentele aard van intelligentie of menselijkheid, met Wittgensteins noties van taalrepresentatie, of zelfs met het verwijderen van informatie in een dataset. Het enige dat telt is dat deze systemen geen onderscheid maken tussen iets Hij is Waar en zo Look juist. Als je eenmaal begrijpt dat de AI deze dingen als enigszins uitwisselbaar beschouwt, is alles een stuk logischer.

Het is niet mijn bedoeling om een ​​van de geweldige, brede discussies hierover kort te sluiten die consequent plaatsvinden in elke vorm van media en conversatie. We hebben iedereen, van filosofen en taalkundigen tot ingenieurs en hackers tot barmannen en brandweerlieden die zich afvragen en discussiëren over wat “intelligentie” en “taal” werkelijk zijn, en of zoiets als ChatGPT ze heeft.

Het is geweldig! Ik heb al veel geleerd terwijl enkele van de slimste mensen in deze ruimte genieten van hun moment in de zon, terwijl nieuwe, frisse perspectieven uit de monden van vergelijkende kinderen komen.

Maar tegelijkertijd is er veel te regelen bij een biertje of koffie als iemand vraagt ​​”hoe zit het met al dat GPT-gedoe, nogal angstaanjagend hoeveel AI steeds beter wordt, toch?” Waar begin je – met Aristoteles, de mechanische, opmerkzame verlater, of “aandacht is alles wat je nodig hebt”?

Tijdens een van deze chats heb ik uiteindelijk een simpele benadering gekozen die mensen helpt te begrijpen waarom deze systemen echt cool en totaal onbetrouwbaar zijn, met als uitsluiting dat ze op sommige gebieden helemaal geen nut hebben en de geweldige gesprekken die om hen heen gaande zijn. Ik dacht dat ik het zou delen voor het geval je het perspectief nuttig vindt als je hierover praat met andere nieuwsgierige en sceptische mensen die nog steeds niets willen horen over vectoren of matrices.

Er zijn slechts drie dingen om te begrijpen, die tot een uitvloeisel leiden.

  1. Deze modellen worden gemaakt door ze de relaties tussen woorden, zinnen, enz. in een enorme dataset van tekst te laten observeren en vervolgens hun eigen interne statistische kaart te bouwen van hoe al deze miljoenen en miljoenen woorden en concepten met elkaar verband houden. Niemand zei: dit is een zelfstandig naamwoord, dit is een werkwoord, dit is een bijvoeglijk naamwoord, dit is een retorisch middel; Maar dit zijn de dingen die van nature naar voren komen in gebruikspatronen.
  2. Deze modellen leren niet specifiek hoe ze vragen moeten beantwoorden, in tegenstelling tot bekende softwarebedrijven zoals Google en Apple die de afgelopen tien jaar contact hebben opgenomen met AI. Die Het zijn in feite Mad Libs met lege plekken die naar API’s leiden: elke vraag telt of genereert een generiek antwoord. In grote taalmodellen is een vraag gewoon een reeks woorden zoals elke andere.
  3. Deze modellen hebben de expressieve basiskwaliteit dat ze ‘zelfverzekerd’ zijn in hun antwoorden. In een eenvoudig AI-voorbeeld met kattenherkenning zou het gaan van 0, wat betekent dat het vrij zeker is dat het geen kat is, tot 100, wat betekent dat het vrij zeker is dat het een kat is. U kunt hem zeggen “Ja, het is een kat” te zeggen als het vertrouwen 85 of 90 is, afhankelijk van wat uw voorkeursmaatstaf oplevert.

Gezien wat we weten over hoe het model werkt, is hier de cruciale vraag: waar heeft dit model vertrouwen in op? Het weet niet wat de kat of de vraag is, alleen de statistische relaties die bestaan ​​tussen de dataknooppunten in de trainingsset. Een simpele aanpassing zorgt ervoor dat de kattendetector er net zo zeker van is dat de foto een koe, de lucht of een stilleven toont. Het model kan niet vertrouwen op zijn eigen “kennis” omdat het geen daadwerkelijke manier heeft om de inhoud van de gegevens waarop het is getraind te evalueren.

De kunstmatige intelligentie drukt uit hoe zeker het is dat zijn antwoord Het lijkt correct voor de gebruiker.

Dit geldt voor katerdetector en is van toepassing op GPT-4 – het verschil is een kwestie van lengte en complexiteit van de uitvoer. De AI kan geen onderscheid maken tussen een goed en fout antwoord – het kan alleen voorspellingen doen Hoe waarschijnlijk Een reeks woorden moet als geldig worden geaccepteerd. Daarom moet hij worden beschouwd als de meest volledig geïnformeerde onzin van de wereld in plaats van als een autoriteit op welk gebied dan ook. Hij weet niet eens dat hij je lastig valt. Het is getraind om een ​​reactie te produceren Statistisch vergelijkbaar met een juist antwoorden hij zal zeggen iets om deze gelijkenis te verbeteren.

De AI weet op geen enkele vraag het antwoord, omdat hij de vraag niet begrijpt. Weet niet wat de vragen zijn. Hij weet van niets! Het antwoord volgt op de vraag omdat, extrapolerend op basis van de statistische analyse, deze reeks woorden hoogstwaarschijnlijk de vorige reeks woorden zal volgen. Of deze woorden nu verwijzen naar echte plaatsen, mensen, locaties, enz., ze zijn niet fysiek – alleen dat ze bestaan. houdt van echt.

Het is dezelfde reden waarom een ​​AI een schilderij kan maken dat op Monet lijkt, maar het niet is – het enige dat ertoe doet is dat het alle kenmerken heeft waardoor mensen een kunstwerk als het zijne kunnen identificeren. De kunstmatige intelligentie van vandaag benadert reacties uit de echte wereld zoals het ‘waterlelies’ benadert.

Nu haast ik me eraan toe te voegen dat dit geen origineel of baanbrekend concept is – het is eigenlijk gewoon een andere manier om een ​​willekeurige papegaai of een octopus onder de zee uit te leggen. Deze problemen werden al heel vroeg opgemerkt door zeer slimme mensen en zijn een goede reden om zoveel mogelijk opmerkingen over technische problemen te lezen.

Maar in de context van de huidige chatbotsystemen heb ik ontdekt dat mensen deze benadering intuïtief begrijpen: modellen begrijpen geen feiten of concepten, maar relaties tussen woorden, en hun antwoorden zijn een “artist’s impression” van een antwoord. Hun doel, als je eraan begint, is om de leegte te vullen overtuigendNee correct. Dit is vooral de reden om haar antwoorden niet te vertrouwen.

Natuurlijk soms, nog vaker, is zijn antwoord Hij is juist! En dat is niet toevallig: voor veel vragen is het ogenschijnlijk juiste antwoord het juiste. Dat is wat deze modellen zo krachtig en gevaarlijk maakt. Uit een systematische studie van miljoenen woorden en documenten valt veel te halen. En in tegenstelling tot een exacte herschepping van ‘Waterlelies’, is er een flexibiliteit in taal die ook een benadering van een realistische reactie mogelijk maakt, maar ook een geheel of gedeeltelijk verzonnen reactie min of meer gelijkmatig laat lijken. Het enige waar de AI om geeft, is dat het antwoord correct is.

Dit laat open voor discussies over de vraag of dit werkelijk kennis is, wat als de modellen iets “begrijpen”, of ze een vorm van intelligentie hebben bereikt, wat intelligentie is, enz. Laat Wittgenstein maar komen!

Bovendien laat het ook de mogelijkheid open om deze tools te gebruiken in situaties waarin de waarheid niet echt van belang is. Als je 5 varianten van een openingsalinea wilt maken om een ​​writer’s block te omzeilen, kan AI onmisbaar zijn. Als je een verhaal wilt verzinnen over twee bedreigde dieren, of een sonnet over Pokemon wilt schrijven, ga ervoor. Zolang het niet essentieel is dat de respons de realiteit weerspiegelt, is het grote taalmodel een bereidwillige en capabele partner – niet toevallig is dit waar mensen er het meeste plezier aan beleven.

Het is heel moeilijk te voorspellen waar en wanneer AI fout gaat, omdat de modellen zo groot en ondoorzichtig zijn. Stel je een kaartcatalogus van continentformaat voor, gedurende honderd jaar samengesteld en bijgewerkt door robots, vanaf de eerste principes die ze ter plekke bedenken. Denk je dat je gewoon naar binnen kunt gaan en het systeem begrijpt? Het geeft een goed antwoord op een moeilijke vraag en een fout antwoord op een makkelijke. Waarom? Op dit moment is dit een vraag die noch kunstmatige intelligentie, noch de makers ervan kunnen beantwoorden.

Dit kan in de toekomst, mogelijk in de nabije toekomst, veranderen. Alles gaat zo snel en zo onverwacht dat niets zeker is. Maar voor nu is dit een handig mentaal model om in gedachten te houden: AI wil dat je het gelooft en zal alles zeggen om zijn kansen te vergroten.

Kommentar veröffentlichen

Neuere Ältere

نموذج الاتصال