Tillämpad programmering || Prov 4

Övningen är skapad 2025-05-06 av annieeriksson. Antal frågor: 43.




Välj frågor (43)

Vanligtvis används alla ord som finns i en övning när du förhör dig eller spelar spel. Här kan du välja om du enbart vill öva på ett urval av orden. Denna inställning påverkar både förhöret, spelen, och utskrifterna.

Alla Inga

  • Convolutional Neural Network (CNN) Neuralt nätverk som känner igen mönster i bilder.
  • Lagerarkitektur Hur lagren i ett nätverk är uppbyggda och sammankopplade.
  • Lagertyper Olika typer av lager i ett CNN, t.ex. faltningslager, pooling, flattening, dense.
  • Faltningslager (Convolution layer) Extraherar mönster från bilden, t.ex. kanter.
  • Max pooling layer Minskar bildens storlek genom att ta det största värdet i ett område.
  • Flattening Gör om en matris till en lång vektor innan sista lagret.
  • Dense layer (fully connected layer) Alla neuroner är kopplade till varje annan i nästa lager.
  • Fördelar med CNN Effektiva vid bildigenkänning, klarar komplexa mönster.
  • Användning T.ex. ansiktsigenkänning, självkörande bilar, medicinska bilder.
  • Data augmentation Metod för att öka mängden träningsdata genom att skapa variationer.
  • Beslutsträd Graf som fattar beslut genom att dela upp datan stegvis.
  • Uppdelning vid attribut/features Att välja det bästa attributet för att göra en uppdelning.
  • Random Forest Modell som kombinerar flera beslutsträd för att öka träffsäkerheten.
  • Ensemble Flera modeller som kombineras för bättre resultat.
  • Bagging Att träna flera modeller på slumpmässiga delar av datan.
  • Beslut Resultatet från en modell, t.ex. ja/nej, kategori, klassificering.
  • Natural Language Processing (NLP) AI-område som hanterar mänskligt språk.
  • Tillämpningar T.ex. chattbotar, översättning, sentimentanalys.
  • Preprocessing Förberedelse av text, t.ex. att ta bort skiljetecken.
  • Tokenization Att dela upp text i ord, tecken eller fraser (tokens).
  • Algoritmer Instruktionsuppsättningar som tränar modeller, t.ex. RNN, LSTM, Transformer.
  • Sannolikheter Används för att förutsäga sannolika nästa ord.
  • N-gram Sekvens av n ord i följd.
  • Bi-gram N-gram där n = 2, alltså två ord i följd.
  • RNN (Recurrent Neural Network) Neuralt nätverk för sekvenser som text.
  • Vanlig RNN RNN utan avancerat minne, ofta kortare sekvenser.
  • LSTM Typ av RNN med minnesceller som klarar längre text.
  • Arkitektur Hur en språkmodell är uppbyggd: lager, kopplingar, minne.
  • LLM (Large Language Model) Mycket stor språkmodell med miljarder parametrar.
  • GPT (Generative Pre-trained Transformer) En LLM utvecklad av OpenAI, tränad på stora textmängder.
  • Etik Läran om rätt och fel, tillämpad på AI-teknik.
  • Mål Vad AI:n är programmerad att uppnå.
  • Definition Hur man definierar AI och dess uppgifter.
  • Vems mål? Frågan om AI:n ska följa användarens, utvecklarens eller samhällets mål.
  • Tegmark: AI och mål Fysikern Max Tegmarks idéer om att AI:s mål måste vara anpassningsbara.
  • Vad är etik? Systematiskt resonemang om vad som är rätt, fel och varför.
  • Isaac Asimov: robotlagar Tre lagar som ska göra AI säkra och etiska.
  • FLI/Tegmark: etikförslag Förslag om hur AI ska vara användbar, säker och rättvis.
  • Shin: FAT Principerna: Fair (rättvis), Accountable (ansvarig), Transparent (öppen).
  • EU: Tillförlitlig AI AI ska vara laglig, etisk och robust.
  • AI Act EU-lagstiftning som reglerar AI beroende på risknivå.
  • Riskbaserad klassificering AI delas in i risknivåer: oacceptabel, hög, begränsad, låg.
  • General Purpose AI AI med bred förmåga, inte begränsad till ett specifikt syfte.

Alla Inga

(
Utdelad övning

https://glosor.eu/ovning/tillampad-programmering--prov-4.12544504.html

)