1. Konnektionism – grunderna Enkla beräkningsenheter Sammankopplade Enkla signaler Olika lager: indata, gömda, utdata Nettovärde = viktad summa + “bias” Aktiveringsfunktion Lägre abstraktionsnivå än ”klassisk” kognitionsvetenskap Indata multipliceras med kopplingens vikt och summeras med resten. I slutet läggs nodens bias till och aktiveringsfunktionen transfomerar nettovärdet till ett lämpligt outputvärde
2. Nätverk och vektorer Gömda lager Linjär separation Nätverk beskriver vektoraritmetik... Gömda lager har ingen kontakt med nätets omgivning Gömda lager är nödvändiga för funktioner vars mappning mellan in- och utdata inte är linjärt separerbara, ex: XOR-funktionen. Utan gömt lager måste en ensam ”neuron” separera (1,0) och (0,1) från (1,1) vilket är omöjligt. Ett indatanät bestående av n neuroner specificerar en punkt i ett n-dimensionellt rum och kan alltså ses som en vektor. Detsamma gäller andra delar av ett neuralt nätverk. Såleded beräknas nätverken med hjälp av matris-baserad beräkning.
3. Inlärning Funktionen bestäms av: hur enheterna kopplas samman; vad/hur in- och utdata representerar; vikter och “bias” Inlärning genom justering av vikter Back-propagation jämför aktuellt och önskat resultat
4. Konnektionismens fördelar I Länk mellan kognitiv psykologi och neurologi Trovärdig simulering av hjärnan uppbyggnad (neuroner) parallellism (100-regeln...) inlärning via viktförändring (synapser) “Graceful degradation” 100-regeln: Hjärnan kan utföra 100 seriella beräkningar i sekunden (dvs klockfrekvens 100 Hz). Trots detta utförs ännu mer komplexa kognitiva operationer (som att känna igen ett talat ord i en känd kontext, igenkännandet av kända objekt) på bråkdelen av en sekund. Slutsats: “beräkningarna” i vår hjärna utförs parallellt.
5. Konnektionismens fördelar II Litet antal enkla mekanismer Lätt att simulera/testa Enhetlig modell för inlärning/erfarenhet Möjliggör mönsterigenkänning “Mjuka” begrepp... Alltid en bästa lösning Litet antal enkla mekanismer: inga riskfyllda antaganden om befintliga kognitiva processer Lätt att simulera/testa: resultaten är kvantifierbara Enhetlig modell för inlärning/erfarenhet (klassisk kv gör skillnad mellan exempelvis deklarativ och procedurell kunskap) Möjliggör beskrivning av den icke-sekvensiella mönsterigenkänning som av allt att döma försiggår i hjärnan så fort vi ”hämtar” något från vårt minne. “Mjuka” begrepp... Äpplen är aldrig perfekta äpplen. Trots detta lyckas vår hjärna alltsom oftast göra rätt typ av kategorisering. Neurala nätverk kan skapa dessa mjuka modeller till skillnad från mer klassiska kv-modeller typ propositionsnätverk som drar hårdare gränser vid kategorisering. Alltid en bästa lösning – en kognitiv variant av graceful degradation. Nätverk ger alltid hyfsade resultat även med ovanliga input.
6. Modell för kognitiv arkitektur Generellt: Lägre beskrivningsnivå Alt 1: “Implementationsperspektivet” Alt 2: En ny teori...
7. “Implementation” Klassiska modeller mappas ner med konnektionistiska implementationer Konnektionism komplement bara om klassiska modeller går att implementera... (annars konkurrent) Skillnad: implementation lämnas (mer) öppen i klassiska modeller
8.Alternativ teori Klassisism Konnektionism strukturerade representationer struktur-känslighet (formalism) kompositionalitet Konnektionism ingen explicit symbolism/kodning möjliggör “graceful degradation”, “mjuka” begrepp, anpassning m.m. strukturerade representationer: en ändlig mängd syntaktiska regler kan generera en oändlig mängd nya uttryck struktur-känslighet (formalism): uttryck av samma typ behandlas exakt lika, dvs processningen är systematisk Kompositionalitet: mappningen från uttryck till världen beror enbart på de representerade uttryckens struktur. Konnektionism ingen explicit symbolism/kodning möjliggör “graceful degradation”, “mjuka” begrepp, anpassning m.m.
9. Alternativ teori II Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Symbolism-liknande resonemang kan emergera ur icke-symboliska processer (åtminstone stimulus-triggade kognitiva processer) Symbolism kanske är ett “inbillat” fenomen! Men resonerande och problemlösning? Svårt att förklara utan strukturer/symbolism... Men just det kanske är orsaken till varför vi använder strukturer och symboler? Smolensky – Intuitiv tanke kommer inte ur omedveten symbolisk beräkning, som involverar omedvetna struktur-känsliga regler. Idé: medveten symbolisk processor OCH omedveten subsymbolisk processor Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Konnektionsistens svar: symbolmanipulation kan “simuleras” av konnektionsmodeller (se exempelvis NETtalk). Det vi ser som symbolmanipulation kanske I själva verket inte existerar. Precis som Newtons lagar definierar felaktiga samband är symbolmanipulation en felaktig och förenklad bild av kognition. Den rätta bilden ges av konnektionsismen. Men resonerande? Svårt att förklara utan strukturer/symbolism... Eftersom resonemang är distribuerade och parallella i nätverksformen
10. Alternativ teori? Slutsatser… Ansatserna är komplement till varandra – olika nivåer av analys Symbolismen behövs för att: Empiriskt kunna undersöka mänsklig kognition Förklara / beskriva mänsklig kognition Konnektionismen kan förklara: Vissa typer av felaktiga resonemang Hur regler formas och tillämpas Så småningom: Relationen mellan kognitiva processer som är beroende av struktur och processer som är beroende av mjuka relationer och “best fit” Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Konnektionsistens svar: symbolmanipulation kan “simuleras” av konnektionsmodeller (se exempelvis NETtalk). Det vi ser som symbolmanipulation kanske I själva verket inte existerar. Precis som Newtons lagar definierar felaktiga samband är symbolmanipulation en felaktig och förenklad bild av kognition. Den rätta bilden ges av konnektionsismen. Men resonerande? Svårt att förklara utan strukturer/symbolism... Eftersom resonemang är distribuerade och parallella i nätverksformen
11. Koncept & kategorier Scheman: är representationer av generell deklarativ kunskap filtrerar bort oväsentlig information fokuserar på väsentlig information underlättar behandling av information ger upphov till slutsatser och förutsägelser kan leda till fel underlättar behandling av information: eftersom scheman fungerar som ett enda ”chunk” i arbetsminnet ger upphov till slutsatser och förutsägelser (på svaga grunder) kan leda till fel
12. Konkreta objekt Definitioner (“the definitional theory”) Nödvändiga, tillräckliga villkor Men vi verkar inte alltid känna till dem... Och hur hanteras villkor som inte är nödvändiga eller tillräckliga men ändå relevanta? I definitional theory inte alls Alternativ: Probabilistiska förklaringsmodeller familjelikhet prototyper Definitioner (klassisk koncept-teori) Nödvändiga villkor: en farmor måste vara kvinna, måste ha en dotter eller son som i sin tur har en dotter och son och... Men vi verkar inte alltid känna till dem... Och ändå lyckas vi göra rätt klassificering, exempel: hund. Probabilistiska förklaringsmodeller Baserad på sannolikhet att ett objekt av en viss typ har ett visst attribut. Resultatet av kategoriseringen är också probabilistisk, dvs just det där äpplet är ett äpple med 88% sannolikhet. Familjelikhet: Vissa konceptinstancer är mer typiska medlemmar av konceptfamiljen än andra instanser Prototyper: ”ideal”-koncept skapade av medelvärden (på de attribut som ett koncept har) av redan kända instanser av ett visst koncept. Nya koncepts kategorisering avgörs genom deras närhet till prototypinstanserna.
13.Semantiska nätverk “Priming” och kontext aktivationsspridning Problem: relationen mellan schema och exemplar Alt 1: Exemplar lagras inte Alt 2: Scheman lagras inte Semantiska nätverk = propositionsnätverk med intentionen att bestämma familjetillhörighet “Priming” och kontext: priming med “fordon” innan ordet “rött” ger snabbare respons med ordet ”brandbil” än om ”rött” presenteras före ”fordon”. Aktivationsspridning Ovanstående resultat beskrivs bra med aktiviationsspridning i semantiska nätverk. Eftersom ”fordon” har färre länkar än ”rött” så sker uppletandet av en instans snabbare om man primear med ”fordon” istf ”rött. Problem: relationen mellan schema och exemplar Alt 1: Exemplar lagras inte – schemat förändras vid exponering av nytt exemplar. Alt 2: Scheman lagras inte - Alla exemplar lagras och jämförs vid behov: med hjälp av likhetsberäkningar
14.Semantiska nätverk II Total konceptuell kunskapsbas Densamma oavsett kontext Stor struktur - processproblem ”Effektivt” koncept Kontext primar de svagare men mer relevanta aspekterna i ett koncept Jmfr verkligheten Teoretisk lösning? Skilja på kärnfaktorer för ett koncept och mer sannolikhetsbaserade faktorer användbara för identifiering av instanser av ett koncept Semantiska nätverk = propositionsnätverk med intentionen att bestämma familjetillhörighet “Priming” och kontext: priming med “fordon” innan ordet “rött” ger snabbare respons med ordet ”brandbil” än om ”rött” presenteras före ”fordon”. Aktivationsspridning Ovanstående resultat beskrivs bra med aktiviationsspridning i semantiska nätverk. Eftersom ”fordon” har färre länkar än ”rött” så sker uppletandet av en instans snabbare om man primear med ”fordon” istf ”rött. Problem: relationen mellan schema och exemplar Alt 1: Exemplar lagras inte – schemat förändras vid exponering av nytt exemplar. Alt 2: Scheman lagras inte - Alla exemplar lagras och jämförs vid behov: med hjälp av likhetsberäkningar