Chinese kamer

Nauwelijks te denken
of nauwelijks nadenken?

Filosofie
Icoon filosofie.svg
Grote gedachtegang
Het goede, het slechte
en de hersenen scheet
Nu ik er aan denk
  • Religie
  • Wetenschap
  • Wetenschapsfilosofie
  • Ethiek
  • Psychologie

De Chinese kamer is eengedachte experimentontworpen door John Searle in zijn artikel 'Minds, Brains, and Programs' uit 1980, grotendeels als een reactie op Alan Turing 'sTuring-testen functionalistische benaderingen van de geest. Het is ontworpen om te bewijzen dat computerprogramma's nooit in staat zullen zijn om geesten te creëren; door te laten zien - voor een zekere mate van 'laten zien' - dat het mogelijk is dat een computer zich gedraagt ​​alsof hij intelligent is, maar op een puur mechanische manier, zodat hij het begrip mist waarvan we intuïtief denken dat het deel uitmaakt van intelligentie. Het experiment is bekend en invloedrijk geworden op verschillende wetenschappelijke gebieden, met name cognitieve wetenschap.

Inhoud

Het experiment

Searle beschrijft het gedachte-experiment als volgt:

Stel dat ik opgesloten zit in een kamer en een grote hoeveelheid Chinees schrift krijg ... [maar] voor mij is Chinees schrijven gewoon zoveel zinloze kronkels. Veronderstel nu verder dat ik na deze eerste batch Chinees schrift een tweede batch Chinees schrift krijg samen met een reeks regels voor het correleren van de tweede batch met de eerste batch. De regels zijn in het Engels en ik begrijp deze regels net zo goed als elke andere Engelse moedertaalspreker. Ze stellen me in staat om de ene set formele symbolen te correleren met een andere set formele symbolen, en al die 'formele' betekent hier dat ik de symbolen volledig kan identificeren aan de hand van hun vormen. Stel nu ook dat ik een derde batch Chinese symbolen krijg samen met enkele instructies, ook weer in het Engels, die me in staat stellen om elementen van deze derde batch te correleren met de eerste twee batches, en deze regels instrueren me hoe ik bepaalde Chinese symbolen kan teruggeven. ... vanuit het standpunt van iemand buiten de kamer waarin ik ben opgesloten - mijn antwoorden op de vragen zijn absoluut niet te onderscheiden van die van native Chinese speakers. Niemand die alleen naar mijn antwoorden kijkt, kan zien dat ik geen woord Chinees spreek. '

De conclusie is dat net zoals de man in het gedachte-experiment het Chinees niet begrijpt maar toch samenhangende antwoorden produceert, een machine onmogelijk 'bewust' kan worden omdat het gewoon een code volgt, het niets begrijptzelf

De instelling is de Turing-test op zijn kop. Een mens, uitgerust met de tijd en algoritmen, imiteert een computer die een mens imiteert. Er is niets opmerkelijks of speciaals aan het gebruik van Chinees in dit gedachte-experiment. Het is alleen iets dat voldoende verschilt van het Engels, of een verwante taal met een Romeins alfabet, om een ​​goed visueel beeld te geven om mee te werken. Het kunnen veel dingen zijn; Frans, Duits, een verzonnen taal of iets anders, zoals het verwerken van wetenschappelijke gegevens vol jargon - d.w.z. we kunnen ons afvragen of een persoon, geladen met het juiste soort tools, een deskundige kan imiteren zonder de informatie zelf op te nemen. Sommige mensen suggereren dat dit in feite is wat de school wil bereiken.

Het experiment werd kort gedemonstreerd in een aflevering van de BBC 'sHorizonprogramma, 'The Hunt for AI'. Hier zat de wiskundige Marcus Du Sautoy in een kamer en vergeleek hij het Chinese schrift dat door een brievenbus was gehaald met een boek met veelvoorkomende zinnen, en gaf met succes antwoorden op vragen terug. In deze demonstratieve versie is het algoritme veel eenvoudiger dan degene die Searle heeft voorgesteld. In werkelijkheid zou het nabootsen van een taal veel meer informatie en een veel groter instructieboek vereisen, evenals de noodzaak voor het door de persoon aangestuurde algoritme om wat geheugen vast te houden - wat betekent dat hetjarenvoor een mens om zelfs het eenvoudigste idee te verwerken. Op het gebied van een gedachte-experiment is een dergelijke beperking echter weinig van belang.



In tegenstelling tot de Turing-test

Oeps… verkeerde kamer!

Het doel van het Chinese Room-gedachte-experiment is om te zeggen dat machines nooit echt zullen begrijpen wat ze zeggen, zelfs niet als ze dat wel doenDoenslagen voor de Turing-test - omdat ze elk concept van semantiek missen. De Turing-test bepaalt of een machine 'bewust' is door effectief te vragen 'ben je bij bewustzijn?' en het zien als 'ja' antwoordt. Dit heette oorspronkelijk 'het imitatiespel', omdat we ons afvragen of de machine een mens zo kan imiteren dat hij een ander mens voor de gek kan houden. Ondertussen vraagt ​​internet mensen sinds het begin van de jaren 90 of ze anderen voor de gek kunnen houden door te denken dat ze niet-intelligente chatbots zijn.

De Turing-test komt voort uit een concept binnen computerprogrammering dat code bepaalde tests moet doorstaan ​​om als functioneel te worden beschouwd. De tests zijn van tevoren opgesteld en de code wordt als 'werk' beschouwd als deze alle gespecificeerde tests foutloos doorstaat, en dit is onafhankelijk van wat de code feitelijkdoetachter de schermen, verborgen voor de gebruiker. Er wordt een analogie gemaakt met kunstmatige vlucht, die met succes werd bereikt toen mensen stopten met het maken van een replica van een vogel, en gewoon keken naar het bouwen van een machine die de vereiste test zou doorstaan: namelijk vliegen. In het geval van de Turing-test is het principe verbonden met gevoel en intelligentie. Een uiterlijk vertoon van intelligentie en het vermogen om te communiceren is vrijwel het enige bewijs dat we van andere mensen kunnen krijgen om dat te bewijzenzebewust zijn ('Hé, daar kun je volledig op vertrouwenImniet eenverzinsel van uw verbeeldingof een computerprogramma ! '), houdt de Turing-test gewoon machines aan dezelfde standaard.

Searle's Chinese Room keert de testgerichte aard van de Turing-test om en suggereert dat 'echte' intelligentie en zelfbewustzijn dieper zijn, en niet gebaseerd op een waarneembaar (en schijnbaar oppervlakkig) resultaat. In plaats daarvan vraagt ​​het zich af wat er in het brein van de machine moet gebeuren om te zien of het echt denkt - analoog aan het teruggaan naar de tijd dat we probeerden een vogel te bouwen, in plaats van een machine die dat eigenlijk zou doen.vlieg​Het probleem hier is dat zoiets moeilijk is - alles wat we hoeven te bewijzen dat een mens zich bewust is, is zijn vermogen om een ​​mens te imiteren, aangezien het opensnijden van een brein en rondneuzen op zichzelf niets bewijst. Turing heeft het imitatiespel ontworpenvermijdendit soort moeilijkheden, geïnspireerd door de testgerichte concepten binnen de informatica.

Problemen

Er zijn echter enkele problemen met deze interpretatie van het resultaat, evenals met de vorm van het gedachte-experiment.

Bewustzijn en opkomst

Een computer die de Turing-test doorstaat, leeft niet meer wanneer hij is uitgeschakeld dan de code leeft wanneer hij op papier wordt afgedrukt en in een kamer wordt achtergelaten, net zoals een hoop neuronen op zichzelf niet leeft - de meeste mensen zijn het erover eens dat een lijk dat nog niet tot stof is verrot, niet echt leeft. Ze moeten allemaal werken om bewustzijn te creëren. Wanneer een hypothetische Turing Test-compatibele computer wordt ingeschakeld en het programma wordt uitgevoerd, produceert het een resultaat dat niet te onderscheiden is van het menselijk bewustzijn. Daarom zou het vragen aan een man in een kamer of hij Chinees verstaat terwijl hij een algoritme volgt, het punt missen van hoe bewustzijn werkt en waar het eigenlijk vandaan komt. In de geïsoleerde kamer is het niet deMensdat moet Chinees begrijpen of begrijpen, maar de code en de instructies. De man is gewoon een hulpmiddel voor het uitvoeren van het programma, op dezelfde manier als bloedtoevoer en elektrische geleiding door kalium- en natriumionen een hulpmiddel is voor het uitvoeren van de functies van het menselijk brein. Het is het algoritme zelf wanneergecombineerdmet de operaties van de man die Chinees verstaat.

Searle reageerde op deze kritiek op het gedachte-experiment door een uitbreiding voor te stellen waarbij de man de noodzakelijke algoritmen volledig internaliseerde, ze onthoudt en uitvoert in zijn eigen hoofd. In dit geval zijn het geen externe activiteiten die de taal begrijpen, het zit volledig in het menselijk brein. Toch de man in het gedachte-experimentnog steedsverstaat geen Chinees. Critici wijzen er echter snel op dat ongeachtwaarhet algoritme gebeurt - of het nu met pennen en papier is, op een computer of in iemands hoofd - het is nog steeds het algoritme gecombineerd met het vermogen om het uit te voeren door het werk en begrip uit te voeren. De weerlegging van Searle geeft dus eigenlijk helemaal geen antwoord op deze kritiek. Inderdaad, het is waarschijnlijk een aanwijzing dat Searle de kritiek in de eerste plaats niet echt begreep. De Chinese kamer negeert zeopkomendeigenschappen van bewustzijn; dat het bestaat als onderdeel van de volgorde en uitvoering van het algoritme binnen een computer, of binnen het enorme netwerk van neuronen in een menselijk brein.

Het is het algoritme, stom

Het experiment bewijst over het algemeen weinig. De man doorloopt dezelfde algoritmen die worden uitgevoerd door een computer die Chinees kan 'begrijpen'. Hij doet ze misschien handmatig (of zelfs in zijn eigen hoofd), maar hij doet ze nog steeds op dezelfde manier. Het is denkbaar dat de pennen, papier en archiefkasten die hiervoor nodig zijn, een vorm van 'hulp' zijn. We kunnen hem meer helpen met een rekenmachine, en dan eindelijk een robotassistent om door de archiefkasten te gaan en de pagina's in het instructieboek om te draaien. We kunnen dan overwegen om geleidelijk meer 'hulp' en automatisering aan het proces toe te voegen totdat de man in wezen in een computer typt om het resultaat te krijgen en op geen enkel moment zullen we een grens overschrijden waar het plotseling de computer wordt die het werk doet in vergelijking met de man . De man in de kamer praat nu tegen een passerende computer van de Turing Test! Een soortgelijk geleidelijk proces kan ook worden gezegd voor de internaliseringsvariant van Searle, hoewel dit de kwestie zou doen rijzen van een afzonderlijke computer die aan de Turing Test voldoet in het hoofd van de man en of dit een beetje een schizofrene episode zou veroorzaken (hoewel dit een gedachte-experiment is, zoals zoiets zou in werkelijkheid waarschijnlijk onmogelijk zijn en geen probleem veroorzaken).

Maar in feite brengt dit ons min of meer terug naar de vraag of de man, de agent die gewoon het opkomende programma uitvoert, überhaupt Chinees moet begrijpen. Om het gedachte-experiment te laten concluderen dat computers niet bewust kunnen zijn, moet dit worden aangetoond. De man zelf hoeft de Chinezen niet meer te begrijpen dan de atomen in zijn lichaam Engels moeten begrijpen als hij de vreemde dag beschrijft die hij heeft gehad, terwijl hij vreemde symbolen rondduwde in een afgesloten kamer, naar zijn vrienden in de kroeg.

Circulaire aannames

Eindelijk het hele conceptroept de vraag opdat menselijk bewustzijn is speciaal en anders. Om de conclusie te accepteren dat een machine niet op dezelfde manier kan begrijpen als mensen, moet je aannemen dat het menselijk denken in het begin anders is, anders mislukt het experiment onmiddellijk - je moet aannemen dat er iets anders is aan de man en dat hijmoetop de een of andere manier Chinees begrijpen tijdens het hele proces. Vergelijk een brein dat draait op verbonden neuronen en een computer die op silicium draaitsimuleert volledig en perfect een brein​Het verschil tussen de eerste en de laatste is niet relevant, en daarom is de Turing-test geldig, tenzij men aanneemt niet-materialistisch dualisme Ten eerste, vandaar de circulariteit. Dat begrip, een beetje semantisch ' magie ', kan alleen in organische hersenen gebeuren, is niets anders dan bio-chauvinisme dat men niet kan beweren.

We ervaren, en daar kunnen we zelf zeker van zijnTeruggooiopgemerkt toen hij zei: 'Ik denk, dus ik ben'. Maar we hebben geen bewijs dat dit bij anderen bestaat, dus zijn we afhankelijk van het projecteren van ons bewustzijn op mensen met wie we kunnen communiceren. Dat deze heuristiek voor het beoordelen van bewustzijn alleen op mensen van toepassing zou moeten zijn en onder geen enkele omstandigheid op computers kan worden toegepast, is terecht speciaal pleidooi

Reactie versus initiatief

Er blijft natuurlijk het feit dat een man in de Chinese kamer, die vloeiend Chinees spreekt, alleen vloeiend zou kunnen reageren. Hij zou input kunnen ontvangen en een antwoord kunnen creëren met volledige nauwkeurigheid, en zou een output kunnen leveren met de verwachting van een bepaalde input, maar kon bijvoorbeeld niet een reeks vragen stellen om bepaalde input te vragen. Hij zou niet kunnen vragen waar hij is, aangezien hij de vertaling niet zou kennen. Evenzo zou hij niet weten hoe hij om eten of drinken moet vragen of om vrijgelaten te worden. Op deze manier wordt via het experiment een duidelijk punt gemaakt: een bewustzijn moet kunnen leren en zichzelf in stand kunnen houden. De man kon vragen regelen totdat er voedsel werd verstrekt, en vervolgens door te testen die vraag met voedsel associëren; hij zou dan een vraag in het Chinees hebben geleerd die een antwoord van voedsel zou opleveren, en iets weten over dat deel van de Chinese taal. Dit is in tegenspraak met de voorwaarden van het experiment, aangezien hij in feite Chinees zou gaan begrijpen; dus een systeem moet het vermogen hebben om te leren, in plaats van alleen maar te reageren.

Facebook   twitter