Veel gebruikte termen

 

  • Genoomsequencing: Genoomsequencing is het proces van het bepalen van de volledige DNA-sequentie van een organisme in één keer. Dit omvat zowel het identificeren van de volgorde van de nucleotiden (de bouwstenen van DNA) in een genoom, als het in kaart brengen van genen en andere functionele elementen. Het in kaart brengen van het menselijk genoom heeft bijvoorbeeld een enorme impact gehad op de medische wetenschap, waardoor we ziekten beter begrijpen en nieuwe behandelmethoden kunnen ontwikkelen.
  • Klimaatmodellering: Klimaatmodellering is een manier om de interactie van de verschillende componenten van het klimaatsysteem, zoals de atmosfeer, oceanen, landoppervlak en ijs, te begrijpen. Met behulp van geavanceerde computermodellen kunnen wetenschappers verschillende klimaatscenario's simuleren en voorspellingen doen over toekomstige klimaatveranderingen op basis van verschillende aannames over bijvoorbeeld uitstoot van broeikasgassen.
  • Feedforward: In het kader van neurale netwerken, is feedforward het proces waarbij informatie door het netwerk stroomt van de invoerlaag naar de uitvoerlaag. De informatie wordt verwerkt als het door elke laag gaat, maar gaat niet terug naar de vorige laag. Dit is in tegenstelling tot terugpropagatie, waarbij foutinformatie wordt teruggestuurd door het netwerk.
  • Foutberekening: Foutberekening is een essentiële stap in het trainingsproces van een neuraal netwerk. Het is het proces van het vergelijken van de voorspelling van het netwerk (output) met de werkelijke waarde (doel). De "fout" of het verschil tussen deze twee waarden wordt vervolgens gebruikt om de gewichten in het netwerk bij te stellen, zodat de voorspellingen van het netwerk verbeteren.
  • Backpropagation (terugpropagatie): Backpropagation is een algoritme dat wordt gebruikt om de gewichten in een neuraal netwerk bij te stellen tijdens het trainingsproces. Het doet dit door de fout die tijdens de foutberekening wordt berekend, terug door het netwerk te sturen (vandaar de naam "backpropagation"). Tijdens dit proces worden de gewichten aangepast om de fout te verminderen. De aanpassingen zijn evenredig met de grootte van de fout; met andere woorden, hoe groter de fout, hoe groter de aanpassing van de gewichten. Backpropagation maakt gebruik van de kettingregel uit de calculus om de afgeleide (of gradiënt) van de fout ten opzichte van de gewichten te berekenen, en deze gradiënt wordt vervolgens gebruikt om de gewichten bij te stellen.
  • Bag of Words: Bag of Words (BoW) is een model dat wordt gebruikt in de verwerking van natuurlijke taal en informatieretrieval. In dit model wordt een tekst (zoals een zin of document) beschouwd als een 'zak' van zijn woorden, waarbij de grammatica en de volgorde van de woorden wordt genegeerd. Elke uniek woord in de tekst wordt gebruikt als een kenmerk in de data.
  • Word2Vec: Word2Vec is een populaire methode die wordt gebruikt om woordinsluitingen te leren, een vorm van woordrepresentatie die in staat is om woorden met vergelijkbare betekenis te vangen door ze dicht bij elkaar te plaatsen in de vectorruimte. Het model, dat een reeks van neurale netwerken is, wordt getraind om de semantische betekenis van woorden te begrijpen.
  • GloVe: Global Vectors for Word Representation (GloVe) is een ongeordend model voor het leren van woordrepresentaties, net als Word2Vec, maar het maakt gebruik van aggregaat globale informatie van de hele corpus in plaats van enkel lokale informatie.
  • BERT: Bidirectional Encoder Representations from Transformers (BERT) is een transformer-gebaseerd model van Google dat is ontworpen om pre-training te bieden voor diep leren modellen in de verwerking van natuurlijke taal. In tegenstelling tot vorige modellen, leest BERT tekst bidirectioneel, wat betekent dat het informatie kan begrijpen uit zowel de links als de rechts van een woord.
  • GPT: GPT staat voor Generative Pretrained Transformer. Het is een autoregressief model dat gebruik maakt van transformer architecturen en een grote hoeveelheid tekstdata om te pre-trainen. Het is ontworpen om mensachtige tekst te genereren. Het huidige model is GPT-4, ontwikkeld door OpenAI.
  • RNN's: Recurrent Neural Networks (RNN's) zijn een klasse van kunstmatige neurale netwerken waar de connecties tussen knopen een gerichte cyclus vormen. Dit zorgt ervoor dat ze sequentiële data kunnen verwerken, wat hen bijzonder geschikt maakt voor taken zoals spraakherkenning, handschriftherkenning en taalmodellering.
  • Short-Term Memory: Short-Term Memory (STM) verwijst in dit geval waarschijnlijk naar Long Short-Term Memory (LSTM) units, die een speciaal soort units zijn in RNN's die zijn ontworpen om het probleem van het 'vergeten' van informatie over lange sequenties dat standaard RNN's ervaren, te overwinnen.
  • ASR: Automatic Speech Recognition (ASR) is de technologie die wordt gebruikt om gesproken taal om te zetten in geschreven tekst. Het heeft veel toepassingen, van spraak-naar-tekst services tot stemgestuurde assistenten en handsfree computing.
  • CTC: Connectionist Temporal Classification (CTC) is een type output layer dat kan worden gebruikt in neurale netwerken, specifiek voor taken zoals ASR waar de timing van de input en output sequenties kan variëren. CTC kan een netwerk leren om input sequenties van variabele lengte te associëren met output sequenties van variabele lengte, zonder dat de uitlijning tussen de sequenties expliciet gespecificeerd hoeft te worden.