1. Konnektionism – grunderna

Slides:



Advertisements
Liknande presentationer
Linjära funktioner & ekvationssystem – Ma B
Advertisements

Kvalitetsgranskning gymnasial lärlingsutbildning6/22/2014 Kvalitetsgranskning av gymnasial lärlingsutbildning.
Kemilärares reflektioner kring användning av visuella representationer
Att svara på tentafrågan - Strategier Språkhandledningen på IT-fakulteten.
Kort om Matrisen Bildat anställda Cirka 2500 kunder
Lärdomar från skolor med mer traditionellt undervisningsmönster
Vad är naturvetenskap i förskolan?
Kopplingen mellan utredning och behandling – vad är det?
Vetenskaplig Metod.
”Språk, lärande och identitetsutveckling är nära förknippade
Datavetenskapens roll. Datavetenskap •Vad är datavetenskapens roll i kognitionsvetenskapen?
Strukturering av domänkunskap för pedagogiska tillämpningar
AU Digital samverkan LO Information
Inlärningsmiljö för att öka motivation
Numeriska beräkningar i Naturvetenskap och Teknik
Startsidan ger kunskap Om vad som är möjligt att göra Och vem som står bakom. Blocken för ämne och organisationer Är klickbara och leder till sidan för.
Tjänster.
Med hänsyn till de sju funktionernas dysfunktion
Instruktioner Vilken grupp av frågor känner du att du instämmer mest med? Instämmer du i hög grad med de första 10 frågorna är din självkänsla lägre.
Informationssystem och databasteknik, 2I-1100
Det kognitiva perspektivet (Kapitel 4)
Språkteknologiska metoder Språkteknologisk forskning och utveckling (HT 2006)
Kognitiva Scheman ”.
Kunskapskrav och matriser
Bedömning Strategi 2 Tillfälle 4 1 Att ta fram belägg för elevers prestationer Att åstadkomma effektiva klassrumsdiskussioner, aktiviteter och.
Examination. Meteorolog för en dag!  Ni ska, i bestämda grupper, spela in en väderpresentation.  Filen ska vara mig till handa absolut senast måndag.
18 nov 2005 snf årsmöte / HM 1 1 Lokalisation av psykiska funktioner och dysfunktioner med hjärnavbildningsmetoder Helge Malmgren Filosofiska Institutionen,
Semantik – introduktion
Fortsatta problem…. Varje riktlinjearbete möter motstånd – organisationer och medarbetare ville inte ändra på vanor och övertygelser om vad som är verksamt.
Kap 11 Språk Kap 11
Karl Popper ( ) Kritiserade den logiska positivismen och speciellt verifierbarhetsprincipen. Kritiserade marxismen och psykoanalysen för att de.
F. Drewes, Inst. f. datavetenskap1 Föreläsning 11: Funktionella språk Funktioner och variabler i matematiken Funktionella språk LISP, ML och.
Designstöd Daniel Fällman Institutionen för informatik Umeå universitet Design och utvärdering, 5 poäng.
ELEKTRONIKINGENJÖR ARBETSMETODER & VERKTYG. ?PROBLEM? Litet större Som störtas bort Händernågot annat ska då hända I omgivningensignalera.
Problemlösningsmetodik
1 Kognitiv modellering inom MDI mekanismer för att kunna förutspå användarens uppträdande härstammar från experimentell psykologi, AI och lingvistik.
INFORMATIONSSYSTEM Informationssystem: datoriserat system som stödjer en organisations informationsförsörjning VERKSAMHET avbildar Definitionen alltför.
Digitalteknik 7.5 hp distans: Realisering av logik med PLD och VHDL1.4.1 En kretsrealisering med VHDL består av fyra huvudmoment Specifikation Beskrivning.
För att inkludera alla Ljusdal IF
Perception och motorik Perception och MDI Modeller Konkreta resultat Generella slutsatser Att läsa: Kapitel 2 & 3 i Carroll.
Mentala modeller Vad syftar vi på mer specifikt? 6 idéer kring mentala modeller Fruktbara ansatser för framtiden Att läsa: Kapitel 6 i kursboken.
Perception och motorik
1 Computer Science & Communication Martin Rehn, CBN, KTH Hjärnan i datorn Martin Rehn CBN, CSC, KTH f.d. SANS, NADA, KTH.
1 Mjukvaru-utveckling av interaktiva system God utveckling av interaktiva system kräver abstrakt funktionell beskrivning noggrann utvecklingsmetod Slutanvändare.
Satslogik, forts. DAA701/716 Leif Grönqvist 5:e mars, 2003.
Program. Symboliska samband Symboliska beteenden Matematisk kausalitet (orsak – verkan) 2x = y, y = x^2, y = kx + l.
F. Drewes, Inst. f. datavetenskap1 Föreläsning 15: Parallella subrutiner Parallellitet Processer och trådar Semaforer, monitorer och synkroniseringsmeddelanden.
1 Semantik – introduktion Semantik = läran om mening Tvärvetenskapligt filosofi lingvistik psykologi AI Lingvistik motsägelser mångtydighet metaforer Filosofi.
Föreläsning 14 Logik med tillämpningar Innehåll u Cuts och negation u Input/output u Extralogiska predikat u Interaktiva program, failure-drivna.
Analysförmåga Jämföra: Likheter och skillnader, för- och nackdelar
Formella metoder i MDI Behovet Vad menas med formell? Verktyg Exempel Att läsa: Kapitel 14 i kursboken.
Krav på vetenskaplig tolkning
Kognitiva processer och representationer n Propositionella representationer lagrar information i LTM n Aktivationsspridning möjliggör åtkomst n Men sen.
Kulturantropologi A1 VT 2015 Föreläsning 7 Antropologisk metod och arbetssätt + Gästföreläsning med Charlotta Widmark.
Introduktion till AI AI=“Få maskiner att göra sånt som, om…”
1. Konnektionism – grunderna
Designstöd Design och utvärdering, 5 poäng
Behaviorism och intentionalitet
Organisationskultur Det symboliska perspektivet Definitioner
Arbetsmetoder & VERKTYG
Psykiskt funktionsnedsättning
Kognitionspsykologi Kognition Psykologi Perception Minne Tänkande
Projektnamn Företagsnamn Presentatör
Projektnamn Företagsnamn Presentatör
Organisationskultur Det symboliska perspektivet Definitioner
Med hänsyn till de sju funktionernas dysfunktion
ÅTGÄRDSPROGRAM.
McDonald's 2003 Carolin Ekman, Mårten Håkansson, Daniel Höglind, Linda Kiby, Paulina Modlitba, Jenny Sundén
Uppdrag IT-universitet 2018
Vägledningsmodellen Utsikt-Insikt-Framsikt & Varför en modell?
Presentationens avskrift:

1. Konnektionism – grunderna Enkla beräkningsenheter Sammankopplade Enkla signaler Olika lager: indata, gömda, utdata Nettovärde = viktad summa + “bias” Aktiveringsfunktion Lägre abstraktionsnivå än ”klassisk” kognitionsvetenskap Indata multipliceras med kopplingens vikt och summeras med resten. I slutet läggs nodens bias till och aktiveringsfunktionen transfomerar nettovärdet till ett lämpligt outputvärde

2. Nätverk och vektorer Gömda lager Linjär separation Nätverk beskriver vektoraritmetik... Gömda lager har ingen kontakt med nätets omgivning Gömda lager är nödvändiga för funktioner vars mappning mellan in- och utdata inte är linjärt separerbara, ex: XOR-funktionen. Utan gömt lager måste en ensam ”neuron” separera (1,0) och (0,1) från (1,1) vilket är omöjligt. Ett indatanät bestående av n neuroner specificerar en punkt i ett n-dimensionellt rum och kan alltså ses som en vektor. Detsamma gäller andra delar av ett neuralt nätverk. Såleded beräknas nätverken med hjälp av matris-baserad beräkning.

3. Inlärning Funktionen bestäms av: hur enheterna kopplas samman; vad/hur in- och utdata representerar; vikter och “bias” Inlärning genom justering av vikter Back-propagation jämför aktuellt och önskat resultat

4. Konnektionismens fördelar I Länk mellan kognitiv psykologi och neurologi Trovärdig simulering av hjärnan uppbyggnad (neuroner) parallellism (100-regeln...) inlärning via viktförändring (synapser) “Graceful degradation” 100-regeln: Hjärnan kan utföra 100 seriella beräkningar i sekunden (dvs klockfrekvens 100 Hz). Trots detta utförs ännu mer komplexa kognitiva operationer (som att känna igen ett talat ord i en känd kontext, igenkännandet av kända objekt) på bråkdelen av en sekund. Slutsats: “beräkningarna” i vår hjärna utförs parallellt.

5. Konnektionismens fördelar II Litet antal enkla mekanismer Lätt att simulera/testa Enhetlig modell för inlärning/erfarenhet Möjliggör mönsterigenkänning “Mjuka” begrepp... Alltid en bästa lösning Litet antal enkla mekanismer: inga riskfyllda antaganden om befintliga kognitiva processer Lätt att simulera/testa: resultaten är kvantifierbara Enhetlig modell för inlärning/erfarenhet (klassisk kv gör skillnad mellan exempelvis deklarativ och procedurell kunskap) Möjliggör beskrivning av den icke-sekvensiella mönsterigenkänning som av allt att döma försiggår i hjärnan så fort vi ”hämtar” något från vårt minne. “Mjuka” begrepp... Äpplen är aldrig perfekta äpplen. Trots detta lyckas vår hjärna alltsom oftast göra rätt typ av kategorisering. Neurala nätverk kan skapa dessa mjuka modeller till skillnad från mer klassiska kv-modeller typ propositionsnätverk som drar hårdare gränser vid kategorisering. Alltid en bästa lösning – en kognitiv variant av graceful degradation. Nätverk ger alltid hyfsade resultat även med ovanliga input.

6. Modell för kognitiv arkitektur Generellt: Lägre beskrivningsnivå Alt 1: “Implementationsperspektivet” Alt 2: En ny teori...

7. “Implementation” Klassisk arkitektur = programspråk Konnektionism = logiska kretsar Konnektionism konkurrent bara om klassiska modeller inte går att implementera... (annars komplement) Skillnad: implementation lämnas (mer) öppen i klassiska modeller

8.Alternativ teori Klassisism: Konnektionism strukturerade representationer struktur-känslighet (formalism) kompositionalitet Konnektionism ingen explicit symbolism/kodning möjliggör “graceful degradation”, “mjuka” begrepp, anpassning m.m. strukturerade representationer: en ändlig mängd syntaktiska regler kan generera en oändlig mängd nya uttryck struktur-känslighet (formalism): uttryck av samma typ behandlas exakt lika, dvs processningen är systematisk Kompositionalitet: mappningen från uttryck till världen beror enbart på de representerade uttryckens struktur. Konnektionism ingen explicit symbolism/kodning möjliggör “graceful degradation”, “mjuka” begrepp, anpassning m.m.

9. Alternativ teori II Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Symbolism kanske är ett inbillat fenomen! Men resonerande? Svårt att förklara utan strukturer/symbolism... Men vissa mentala processer (tänkande) verkar bestämt vara symboliska? Konnektionsistens svar: symbolmanipulation kan “simuleras” av konnektionsmodeller (se exempelvis NETtalk). Det vi ser som symbolmanipulation kanske I själva verket inte existerar. Precis som Newtons lagar definierar felaktiga samband är symbolmanipulation en felaktig och förenklad bild av kognition. Den rätta bilden ges av konnektionsismen. Men resonerande? Svårt att förklara utan strukturer/symbolism... Eftersom resonemang är distribuerade och parallella i nätverksformen

10. Koncept & kategorier Scheman: filtrerar bort oväsentlig information fokuserar på väsentlig information underlättar behandling av information ger upphov till slutsatser och förutsägelser kan leda till fel underlättar behandling av information: eftersom scheman fungerar som ett enda ”chunk” i arbetsminnet ger upphov till slutsatser och förutsägelser (på svaga grunder) kan leda till fel

11. Konkreta objekt Definitioner Nödvändiga villkor Men vi verkar inte alltid känna till dem... Probabilistiska förklaringsmodeller familjelikhet prototyper Definitioner (klassisk koncept-teori) Nödvändiga villkor: en farmor måste vara kvinna, måste ha en dotter eller son som i sin tur har en dotter och son och... Men vi verkar inte alltid känna till dem... Och ändå lyckas vi göra rätt klassificering, exempel: hund. Probabilistiska förklaringsmodeller Baserad på sannolikhet att ett objekt av en viss typ har ett visst attribut. Resultatet av kategoriseringen är också probabilistisk, dvs just det där äpplet är ett äpple med 88% sannolikhet. Familjelikhet: Vissa konceptinstancer är mer typiska medlemmar av konceptfamiljen än andra instanser Prototyper: ”ideal”-koncept skapade av medelvärden (på de attribut som ett koncept har) av redan kända instanser av ett visst koncept. Nya koncepts kategorisering avgörs genom deras närhet till prototypinstanserna.

12.Semantiska nätverk “Priming” och kontext aktivationsspridning Problem: relationen mellan schema och exemplar Alt 1: Exemplar lagras inte Alt 2: Scheman lagras inte Semantiska nätverk = propositionsnätverk med intentionen att bestämma familjetillhörighet “Priming” och kontext: priming med “fordon” innan ordet “rött” ger snabbare respons med ordet ”brandbil” än om ”rött” presenteras före ”fordon”. Aktivationsspridning Ovanstående resultat beskrivs bra med aktiviationsspridning i semantiska nätverk. Eftersom ”fordon” har färre länkar än ”rött” så sker uppletandet av en instans snabbare om man primear med ”fordon” istf ”rött. Problem: relationen mellan schema och exemplar Alt 1: Exemplar lagras inte – schemat förändras vid exponering av nytt exemplar. Alt 2: Scheman lagras inte - Alla exemplar lagras och jämförs vid behov: med hjälp av likhetsberäkningar