Neurala nätverk‑labbet

Ett neuralt nätverk lär sig göra förutsägelser genom att träna på data. Här får du se hela processen steg för steg.

1
Träna nätverket – Nätverket börjar med slumpmässiga vikter. Genom att träna på hundratals exempel lär det sig vilka kopplingar som är viktiga.
2
Utforska beräkningarna – Stega genom nätverket neuron för neuron. Se hur varje neuron multiplicerar, summerar och aktiverar.
3
Gör egna förutsägelser – Ändra indatavärdena och se om nätverket svarar rätt.

💡 Ny på neurala nätverk? Byt till 🧮 Beräkningsläge i scenario-menyn för att först se hur varje neuron beräknar sitt värde – med fasta, enkla tal utan träning.

← AI-aktiviteter

Neurala nätverk‑labbet

Följ beräkningarna steg för steg, träna på data och gör förutsägelser.

Scenario
Arkitektur
Indatavariabler
Aktivering
Tryck Träna modellen för att börja.
Rätt svar (från data)
Nätverkets förutsägelse
Bedömning
Träningsepoker
0

📖 Begrepp – klicka för förklaring

Neuron Vikt Bias (+b) Aktivering Aktiveringsfunktion Dolt lager Utdata Förlust Framåtpass Epok Förutsägelse
Neuron – En beräkningsenhet (cirkel i nätverket). Den tar emot värden, multiplicerar dem med vikter, summerar och kör resultatet genom en aktiveringsfunktion.
Vikt – Ett tal som bestämmer hur stark kopplingen mellan två neuroner är. Vikterna är det nätverket lär sig under träning. Tjockare linje = starkare vikt.
Bias (+b) – Ett startvärde som adderas i varje neuron innan aktiveringen. Det gör att neuronen kan aktiveras även om alla inputs är noll. Tänk på det som neuronens grundinställning.
Aktivering – När en neuron "aktiveras" betyder det att den skickar vidare en signal till nästa lager. Aktiveringsfunktionen bestämmer hur starkt neuronen reagerar. Högt värde = starkt aktiverad. Lågt = nästan inaktiv.
Aktiveringsfunktion – Den matematiska funktion som varje neuron kör sitt summavärde genom. Utan den hade nätverket bara kunnat lära sig raka linjer.

ReLU – max(0, x). Enklast: negativa värden blir 0, positiva passerar rakt igenom. Bra för beräkningsövningar.
Sigmoid – Pressar alla värden till mellan 0 och 1. Utdatan kan tolkas som en sannolikhet. Används i scenarierna.
Tanh – Pressar värden till mellan -1 och 1. Kan ge negativa aktiveringsvärden.
Dolt lager – Lager mellan indata och utdata. Det är här nätverket hittar mönster i datan. Fler neuroner och lager = nätverket kan lära sig mer komplexa samband.
Utdata – Nätverkets slutgiltiga svar. Utdataneuronens värde representerar en sannolikhet mellan 0 och 1. Ett värde på 0.85 betyder 85% säkerhet på "Ja".
Förlust (loss) – Ett mått på hur mycket fel nätverket gör. Under träningen jämförs nätverkets svar med det rätta – skillnaden blir förlusten. Målet är att göra förlusten så liten som möjligt.
Framåtpass – Processen där data flödar genom nätverket från indata till utdata, lager för lager.
Epok – Ett varv genom all träningsdata. Under varje epok justeras vikterna lite. Fler epoker = nätverket har övat mer.
Förutsägelse – Nätverkets svar för nya indatavärden. Jämför med rätt svar för att se om nätverket lärt sig rätt.

📊 Träningsdata

De första kolumnerna visar verkliga värden, följt av normerade (0–1) som nätverket ser.