Rita datapunkter för två klasser och se hur olika modeller drar gränsen mellan dem.
Vänsterklick = A · Högerklick = B
Hastighet½×
Klass A
Klass B
Felklassificerad
Modell
Färdiga mönster
Status
Iterationer0
Förlust–
Träffsäkerhet–
Felklassificerade–
Klass A / B0 / 0
Rita punkter för att börja
Linjär modell kan bara rita en rak beslutsgräns. Testa om den lyckas klassificera exempelvis ett XOR-mönster.
Aktiveringsfunktion
tanh ger värden −1 till +1. Mjuka, böjda gränser. Aktiv i hela intervallet.
Neuronaktivering
Varje neuron visar sitt eget aktiveringsvärde. Bläddra mellan de olika neuronerna och se hur varje neuron delar upp planet på sitt eget sätt. En neuron klassificerar inte själv – det är först när alla neuroners signaler kombineras i utdatalagret som beslutsgränsen uppstår.
Arkitektur (neuroner per dolt lager)
Tips!
Byt aktiveringsfunktion till ReLU och aktivera neuronvisualisering. Ser du skillnaden? Med tanh visar neuronerna både röda (negativa) och blå (positiva) områden. Med ReLU ser du bara blått och mörkt – neuronen är antingen aktiv eller helt avstängd. Det är därför ReLU skapar skarpa kanter i beslutsgränsen medan tanh ger mjuka kurvor.
Visualisering av beslutsgränser
En klassificeringsmodell lär sig dra en gräns mellan olika kategorier. Undersök hur den gränsen ser ut och upptäck varför det ofta behövs ett neuralt nätverk
1
Börja med det linjära mönstret – Välj Linjär modell och tryck ▶ Träna. Se hur en rak linje separerar de två klasserna!
2
Testa ett annat mönster – Byt exempelvis till mönstret XOR i högermenyn. Träna med linjär modell igen. Ser du att en rak linje inte kan klassificera punkterna?
3
Lägg till ett dolt lager – Byt modell till Neuralt nätverk med 1 dolt lager och träna om. Se hur gränsen böjer sig och punkterna klassificeras rätt!
💡 Tips: I fliken Avancerat kan du aktivera neuronvisualisering – Här kan du se hur varje enskild neuron i det dolda lagret delar upp ytan på sitt eget sätt. Det är kombinationen av alla neuroner som skapar den slutliga beslutsgränsen.
🔬 Avancerat läge
Här kan du analysera modellen ytterligare.
1
Neuronvisualisering – Aktivera den och bläddra igenom neuronerna i det dolda lagret. Varje neuron delar upp ytan på sitt eget sätt – den ena kanske reagerar på "övre vänstra hörnet", en annan på "diagonalen". Beslutsgränsen du ser i standardläge uppstår när alla neuroners bidrag kombineras i utdatalagret.
2
Aktiveringsfunktion – Byt mellan tanh (mjuka kurvor) och ReLU (skarpare kanter). Se hur formen på beslutsgränsen förändras.
3
Ändra arkitektur – Justera antalet neuroner per lager. Här kan du upptäcka att fler neuroner ger en mer flexibel gräns, men också långsammare träning.