Beheers Big Data op AWS - eLearning

450,00 EUR

  • 25 hours
eLearning

Beheers de kracht van Big Data op AWS en leer hoe je schaalbare gegevensverwerkende systemen in de cloud ontwerpt, bouwt en beheert. Deze uitgebreide cursus is ontworpen om je te helpen begrijpen hoe AWS-services samenwerken om enorme hoeveelheden data efficiënt en veilig te verwerken. Je doet praktijkervaring op met kerntools voor big data, zoals Amazon EMR, Amazon Kinesis, AWS Glue, Amazon Redshift en Amazon Athena. De training richt zich op het bouwen van end-to-end big data-pijplijnen met behulp van Hadoop-ecosystemen, op Spark gebaseerde analyses en real-time streamingarchitecturen.

Belangrijkste functies

Taal

Cursus en lesmateriaal in het Engels

Niveau

Niveau: beginner - halfgevorderd

Toegang

1 jaar toegang tot het leerplatform

14 uur aan video's op aanvraag

met meer dan 25 uur aanbevolen studietijd

18 oefeningen & 6 toetsen

4 opdrachten & 1 project

Certificering

Inclusief certificaat van afronding van het programma

Hero

Leerdoelen

Aan het einde van deze cursus ben je in staat om:

Begrijpen

Begrijp bigdataconcepten en de AWS-bigdata-architectuur

Implementeren

Implementeer en configureer Amazon EMR-clusters voor gedistribueerde verwerking

Hadoop

Werk met Hadoop-ecosysteemtools zoals Hive, Pig en Spark

Kinesis

Verwerk realtimegegevens met Amazon Kinesis

ETL

Gebruik AWS Glue voor dataintegratie en ETL-workflows

Analyseren

Query en analyseer gegevens met Amazon Athena en Redshift

Opslag

Implementeer opslagstrategieën voor schaalbare bigdatasystemen

Ontwerp

Ontwerp veilige, kostenefficiënte bigdatasolutions op AWS

Toepassen

Pas in-memory-analyse toe voor snellere gegevensverwerking

Pijplijn

Bouw end-to-end cloudgebaseerde big data-pijplijnen

Hero

Cursusplanning

  1. Inleiding tot Big Data op AWS

    Les 01

    • Big Data-grondbeginselen
    • Inzicht in de AWS‑dienstenstack voor bigdata‑analyse
    • Snel een data lake opbouwen met Lake Formation
  2. Gegevensverzameling, catalogi en voorbereiding

    Les 02

    • Patronen voor gegevensinname in AWS
    • Gegevens migreren met AWS DMS en SCT
    • Batchgegevens laden met S3 Load en Transfer Family
    • Databases crawlen met AWS Glue Crawlers
    • Realtime datastreaming met Kinesis
    • Een beheerde Kafka-queue gebruiken om data met verschillende snelheden te verwerken
    • Externe gegevens integreren met AWS AppFlow
  3. Grote gegevens opslaan

    Les 03

    • Opslagvereisten voor gegevens vaststellen
    • Beheer je big data met AWS Glue Catalogus
    • Voer interactieve bigdataquery’s uit met Amazon Athena
    • Een datawarehouse maken met Amazon Redshift
    • Externe gegevens gebruiken voor analyses met Redshift Spectrum
    • NoSQL-gegevens opslaan in DynamoDB
  4. Realtime gegevensstreaming

    Les 04

    • Inleiding tot streaminggegevens
    • Amazon Kinesis-gegevensstreams
    • Kinesis Data Firehose en Analytics
    • Live datastromen verwerken
  5. Oplossingen voor gegevensopslag op AWS

    Les 05

    • AWS-opslagdiensten voor big data
    • Het juiste gegevensopslagmodel kiezen
    • S3 als data lake
    • Beheer van de gegevenslevenscyclus
  6. Uw gegevens verwerken op AWS

    Les 06

    • Inleiding tot Apache Hadoop en Amazon EMR
    • Werken met Spark op EMR
    • Tabellen maken en opvragen met Spark en Spark SQL op Amazon EMR
    • Werken met AWS Glue
    • Big Data ETL-orkestratie bouwen met Amazon MWAA
    • Gegevens visualiseren met Amazon QuickSight
  7. Geavanceerd onderwerp over big data

    Les 07

    • Een data lake bouwen met AWS Lake Formation
    • Kostenbeheersingsstrategieën om EMR-clusters te optimaliseren
    • Beveiliging van bigdata‑applicaties op AWS
    • ML-modellen bouwen op een data lake met SageMaker
Beheers Big Data op AWS

Voor wie is dit programma bedoeld?

Data-engineers en cloud-engineers

Solutions architects die met AWS werken

Data-analisten en datawetenschappers

Big data-professionals die overstappen naar de cloud

DevOps-engineers en support engineers

IT-professionals die zich voorbereiden op AWS-datacertificeringen

Start nu met de cursus

Vereisten

  • Basiskennis van bigdataconcepten (Hadoop, SQL, NoSQL)
  • Kennis van de belangrijkste AWS-services wordt aanbevolen
  • Kennis van datawarehousing en database‑fundamentals
  • Eerdere ervaring met concepten van cloudcomputing is nuttig
  • Basiskennis van gegevensverwerkingsworkflows

Verklaringen

Licenties en accreditatie

Deze cursus wordt aangeboden in overeenstemming met de Partner Program Agreement en voldoet aan de vereisten van de License Agreement.

Gelijkheidsbeleid

Kandidaten worden aangemoedigd om tijdens het gehele accommodatieproces contact op te nemen met AVC voor advies en ondersteuning.


Veelgestelde vragen

Contact background

Heeft u bedrijfsoplossingen of LMS-integratie nodig

Heb je niet de cursus of het programma gevonden dat geschikt zou zijn voor jouw bedrijf? Heb je een LMS-integratie nodig? Neem contact met ons op! Wij zullen met een passende oplossing komen!