GCP Architect - ghdrako/doc_snipets GitHub Wiki

### Compute Engine
* disks
* snapshot
* maschine metadata

### Instance Template/Instance Groups

### App Engine – Standard/Flexible
### GKE - Kubernetes
### Organizacja zasobów w GCP
### Cloud IAM
###Usługi przechowywania danych:
Cloud Storage, Cloud Bigtable, Cloud SQL, Cloud Spanner, Cloud Datastore, Cloud Memory
* Skalowanie
* Zastosowanie
* jaka retencja danych
* w jakim stopniu sa uslugami zarzadzalnymi    
### VPC !!!
### Load balancing – global/regional
### Google Kubernetes Engine
### BigData (Dataprep, Dataflow, BigQuery, Pub/Sub)
### ML Cloud Data Studio Cloud Iot Core CloudNAT CloudDNS
### Stackdriver!

Pytania biznesowe - aspekty wazne dla klienta:
* niezawodnosc
* skalowanie
* automatyzacja

Scenarios

EHL Healtcare

https://reviewnprep.com/blog/how-to-work-on-gcp-case-study-ehr-healthcare/ https://reviewnprep.com/blog/six-steps-to-google-professional-cloud-architect-certification/

  1. Identyfication service Solution concept
    • Google Kubernetes Engine (GKE) cluster with auto-scaling feature enabled for scaling of the environment.
    • CI/CD pipeline using Cloud Repository, Jenkin builds, Docker, Container registry, Terraform tools. This helps development team to focus on building new functions while the automated continuous deployments reduce the ‘Time to Market’ cycles for releasing new features.
  • Google Cloud Directory Sync allows to synchronize the user data into Google IAM from Microsoft Active Directory which is being used on-premise by EHR. Existing technical environment
  • Apigee platform for developing and managing APIs by providing proxy layer as abstraction for existing backend services APIs.
  • Cloud SQL with MySQL, SQL Server. Memorystore is in-memory service for Redis and Memcached. Cloud Datastore is the closest native option for migrating MongoDB tables. However, MongoDB Atlas on Google Cloud is fully managed service from MongoDB that makes the data migration easier. Business requirements Multi-cluster design provides maximum availability for customer facing applications. Cloud Monitoring to provide centralised visibility on system performance, logs, alerts etc. BigQuery provides scalable data analytics for deriving useful business insights using built-in features like machine learning. Content Delivery Network (CDN) – uses Google edge network to deliver content closer and faster to users with reduced latency. BigQuery ML modules generate predictions based on industry trends by analysing large data in BigQuery data warehouse. Google Cloud operations. Cloud Logging and Cloud Monitoring allow us to search, analyze, monitor, and alert on data and events. They also require log retention. For cost-saving, we could utilize Cloud Storage. Google Cloud Hybrid Connectivity options here, specifically around dedicated interconnect
    When we think of DR with databases, we should be thinking about multi-region, highly available instances. Cloud SQL instances offer high availability through synchronous replication to persistent disks in different zones. Database Migration Services to

Technical requirements Google Kubernetes Engine (GKE) cluster to run container based web applications on cloud and on-prem in consistent manner. The clusters provide dynamic scalability feature to grow in size in case of higher traffic. Cloud Interconnect to provide high-performance and secure connectivity between on-premise and Google cloud based systems. Cloud Monitoring for consistent Cloud Logging, Monitoring, Alerting mechanism in hybrid environment. Anthos config management to create and apply common configuration across both on-premises and in cloud in a consistent way. Cloud Pub/Sub to ingest data from new providers in real-time data processing flow. Executive statement

GKE offers a simple way to use their existing containerized applications

Role wazno znac w BigQuery !!! Cloud Storage i VM-ki tez role

Rozrozniac role viewer - ktore pozwalaja wejzec do srodka a browser - kproject browser audytor widzi projekty ale nie wejdzie zobaczyc co w srodku

Role skladaja sie z previgiles ale privileges nie da sie przydzielic Role przydzilela sie do grupie. Po to mamy chierarchie resorsow aby przydzielac role. Czesto foldery a nie projekty gdzie przydzielamy role. Jesli mamy team ktory zajmuje sie osobna dzialka czesto dla nich tworzymy foldery. A wewnatrz projekty zyja sa dodawane i usuwane i lepiej dawac role na poziomie folderow i projekty dodane dziedzicza role

GCP Denied IAM - od nie dawna sa Dienied polices - now feature

polices tricky - w GCP polices czy IAM policys to myslimy o rolach

Jest jeszcze gcp org polices - ograniczenia dodatkowe - np na poziomie calej organizacji aby vm z publicznym ip albo tworzymy zasobow tylko w regionie Organisation Policy Constraints

IEM polices sie propaguja w dol i nie da sie zatrzymac Organization polices jest inaczej - moze sie propagowac w dol ale jakis folder moze byc wyjatkowy np sa vm z public ip

Wszyskie GCP storage services are encrypted at rest

Kazda uslga ma swoje SLA jesli propagujecie usluge rozpraszacie na zony to podnosi SLA

Latency mesure request in time = Tracer

3 sposby gsutil lub api Storyge Transfer service na agentach - softwerowo - kontola ograniczac banderwif,pausowac mozna i wznawiac - optymalne kosztowo cost effective i regular - slowa klucze Transper Apliance - nie jest optymalny kosztowo 100T i 400T offlinowo - drogie nie dostepne wszedzie trzeba czekac dlugo kwestia tygodni 60T+ ale nie low cost

strongly consisten transaction - Cloud SQL

Memory stor - Redis klucz wartosc in memory do keszowania

time series data IoT millin devices - BigTables

Relational database - odpada BigQuery

globaly avaliable - spaneer

Cloud Storage Dual region - nie dowolne 2 regiony tylko z par dostenych - przy DR Nie Muli Region nie mamy kontroli gdzie sa skladowane - tylko per kontynent

Rozrzucanie po regionach ze nie tylko DR ale inteligentne ze serwuje klientom dane z najblizszego im miejsca

Najtanszy storage a potem bigquery (jesli sie nie zmieniaja i po 90 dniach do tanszego tieru)

to deploy and scale their customer-facing web apps. Using GKE means that the infrastructure underneath GKE is not only hosted but managed as well, providing the cost savings from the hosting they require.

GCS Retention policy - co innego niz Life Cycle policy

Retention policy - regulacje ze logi musza byc przechowywane przez 5 lat i nikt ich nie ruszy zmodyfikuje jesli lock i nie mozna usunac to nie mozna usunac projektu

EHR Healcare Case Studies - wymyslone scenariusze korporacji - opis wyzwan i celi

12 pytan odnosi sie do 2 z 4 refering to EHR Healceare case Study

jak hierarchie zasobow bys zaproponowal jak uprawnienia przez grupy typ lacznosci miedzy GCP a on-prem zaproponujesz

multinational - globalne ochrona zdrowia complience sequrity ,dane wrazliwe

organisation polices szyfrowanie danych - wlasnych kluczy CMEX CMEK KMS IAM - role customowe proxy goglowe - autoryzacja i autentykacja Cloud Identity

DLP - data lost prevention - skanowanie danych czy zawieraja dane wrazliwe szyfrowanie

logi audytowe - audit logs np cloudsql logi kto czyta i pisze a nie tylko standardowe ale mozna wyexcludowac usera aplikacyjnego

Complience - ktos chce zapewnic jaies konkretne zabezpieczenie np trzymac dane w danym regionie komunikacja miedzy publicznymi adresami, albo kontrolowac czy dane wrazliwe

software as service czyli uslugami typu manage rosna i rozszerzac biznes i miec model hybrydowy multi cloud - o wielu prowiderow

kubernetes - duzo pytan anthos warto go troche poznac gdzie stosowac i jakie ma funkcjonalnsci service masz - pytania jakie uslugi i funkconalnosci zapewnic

fire store i data store jako jeno. fie stor nowy - najprostrzy fire base - platforma ale nie tylko baza danych - zbudowanie uslu na oklolo uslug mobilnych

API - wystawiaja do systemow - migrowac stopniowo wystawianie api w trybie hybrydowym W google 2 uslugi do wystawiania zarzadzania api api dodatkowy kod w zaleznosci co jest buckendem Cloud Endpoints - ograniczenie ze buckendem - przekierowanie do uslugi tylko w GCP Apiegee - nie ma tego ograniczenia backen moze byc on-prem - serwisy zdeployowane w modelu hybrydowym

Model hybrydowe albo moneteryzowac api - to apigee GCDS google cloud directory sync - w jedna strony

ADFS - na podtawie maila zostanie przekierowany do AD aby sie autentykowac

Cloud monitoring fajne ale trzeba patrzec na nie aby nie patrzec to alerty alertowanie na podtawie logow SLI i SLO notification channels

interconnect roznica vpn jak tryb wysokiej dostepnosci oba polaczenia - jak zdeployowac w vpn wiele tuneli z wieloma ruterami w obrebie jednego gateweya

GCP Cloud Interconnect - wysoki poziom - jakie komponenty gdzie laczymy

GKE autoskalowanie na poziomie nodow i podow

klastry auto pilot - skalowac aplikacje

to samo dla appEngine i Compute Engine (MIGG i ustawic autoskalowanie)

W jaki sposob bezpiecznie deployowac aplikacje canary i release wycofanie sie jak to zrobic w GKE AppEngine(canary deployment included i release) W GKE jak to zrobic jak w VM-kach

jak sie skaluje w gore i dól i jak relesowac nowe wersje

provisioned Deployment Manager i Terraform tworzyc deployment i deployowac automatyczny iaC

dynamiczne skalowanie

uptimechecking -

Helicopter Racing League

The first thing you should notice in the requirements is that this is a case study where Machine Learning (ML) is really important. Their drive is to provide in-game predictions for their race cars. An ML model can be deployed to production to service these predictions – offering either offline or online predictions. Of course, here, it is clear we require online predictions. Again, to meet these requirements, we must think about how we ingest the data and how it is transformed and enriched. As soon as we see ML as a requirement, we should think of TensorFlow, which will implement and train the ML model. We also need something such as Pub/Sub to ingest the events and Dataflow to process the data. Cloud Machine Learning Engine can be used for feedback predation analysis. We can also think about the Vertex AI platform, which is a serverless platform that can train, tune, and serve TensorFlow models at scale. This can assist us with our online predictions. Latency is also a concern here and the company wants to reduce this for their viewers as much as possible. For real-time predictions, it becomes really important as the viewer will expect this immediately. To optimize our models for serving, we should think about using smaller models by reducing the number of input features and ensuring all the irrelevant parts of the model are removed. Additionally, we should think about storing the events in a low-latency database such as Bigtable.


Dataproc - lif&shift heev pig spark, hadoop - migrcje z on-premis z zachowaniem istniejacych pipelines Jesli robione cos na nowo to dataflow - preferowane rozwiazanie w google

websockets - load balancer globlny httpsowy ktory wspiera websockets

RFC 1918 - Address Allocation for Private Internets (local ip) z lokalnym IP - IAP, VPN, bastion host

cloud shell gdy wylaczony ssh na VM mozna zarzadzac vm-kami

RFC1918 - adresy internalowe

relational petabytes skale global = spaner

kilkadziesiat tb 60TB max - cloud sql

Cool down period - mig

latency = trace jak dlugo zajmuje obsluga requestow = cloud trace

decouple services - change from synch to asynch communication pub-sub jeden jest przegrzany, piki

Database Migration Services - sposob migracji - automatyzacja poprzez replikacje mysql-mysql, postg-postg bedzie z Oracled postgresa

data flows = streaming , near real time, czujniki wysylaja informacje

migration kafka to pub/sub w jaki sposob skomunikowac te serwisy [08:28] Maciej Zachariasz https://cloud.google.com/architecture/migrating-from-kafka-to-pubsub Migration from Kafka to Pub/Sub  |  Cloud Architecture Center  |  Google Cloud

wydajnosc sieci w VM wplywa ilosc CPU - do 16 CPU max i zwiekszanie juz nie wplywa To samo jest do wydajnosci dyskow bo to zasoby sieciowe

spikes = pub/sub zbuforuje decoupling

healt check - instance groupa na tej podstawie stwierdza czy przeslac request do danego bacendu

Filestore = zarzadzany nfs Firebase = platforma bazuje na firestore do wspierania aplikacji mobilnych Firestore = dokumentowa

Cloud VPN <> privat bo przez internet wiec interconnect

partner interconect od 50mbits dedigated od 10gbit

global lod balancing - zdrowy najblizszy backend

VPC - reguly firewallowe dzialaja zawsze - nawet w obrebie tej samej podsieci - dzialaja zawsze !!!! jak ruch wchodzi i wychodzi reguly sa sprawdzane nawet w tej samej podsieci

VPC Beering , Cloud VPN - polaczyc sieci in different organisation <> vpc sharing

Carrier Peering, Dedicated Peering ?????

Jesli polaczymy sieci niedzy dwoma sieciami to tylko daje widocznosc po adresach internalowych to jeszcze sa potrzebne reguly firewalowe aby se polaczyc - reguly i przychodzace i wychodzace

up time check - Livenes Redines Probes = kubernetes up

half cheki load balancer instance group uptime checks - element monitoringu - badanie aplikacji - mamy wystawione zasoby chcemy aby google sprawdzal czy zyja np uderzamy requestem i chcemy miec 200 i jesli cos innego to alertuj. Okreslamy skad maja byc te checki - google ma serwerki w regionach do uptime chackow

Firma zawody helikopterow w roznych regionach - widzowie po calym swiecie striming online,prediction Video streaming = cloud storage - multiregional/dual regional

Croud sentiment Mesure Fan angadment ML Scenarius podchodzenia do ML

  • czy wymaganie stanardowe - rozpoznawanie obrazu,tekstu, sentyment - sa dostepne modele - w postaci API np
  • use case w miare do ogarniecia z gotowymi modelami ale jest w nim cos specjalnego - swoje konkretne produkty - api nie istnieje - dodatkowe douczenie AutoML gdzie korzystamy z gotowych modeli googla ale douczamy naszymi przypadkami np 10 000 ukladow scalonych ktore ok ktore nie ok
  • wynik wyarzen np wyscigow helikopterow - specyficzny problem - wlasdne modele - Vertex AI tworzenie modelu,deploy, wystawianie API modeli BigQuery ML - worzenie modeli na podstawie danych z BigQuery i z jego wykorzystaniem - dane w BigQuery, ludzie znaja tylko sql

trasfer service - migracja danych z innych providerow do bucketow

gcp transfer apliance - dlugo trwa tygodne, drozsze a poza tym dane sa w cloudzie to gdzie wyslemy walizke z dyskami

mig - video transcoding/decoding - skalowalnosc - preomtible vm spotes podpac GPU do vm-ek, skonteneryzowac kubernetes

kubernetes - wazny temat !!!!!!

transcoding API - moga skorzystac z - do transkodowania videoAPI

Scaling:

  • Scaling out = adding more components in parallel to spread out a load.
  • Scaling up = making a component bigger or faster so that it can handle more load.

2022-06-15

Artifactory registry nowszy Cloud Registry

jak cannary na mmig na kubernetes na mig zwykly roling update zaaplikwac tylko na czesc istancji jak zdeplojowac , jak to zrobic bezpiecznie i jakcsie wycofac

rollnack w mig znowu manualny - zatrzymujemy rollaut nowej wersji i uruchomiacie rollout starej wersji

W gcp nie musicie powiadamac ze robicie testy penetracyjne co nie jest standardem. Skanery na zewnatrz z Internetu.

blu-green - szybkie przelaczenie - nie dobry dla dlugo dzialJACYCH TRANZAKCJI ROLLING DEPLOYMENT MODEL = ROLLING UPDATE ZAMIANA JENDEGO NA DRUGI -tworymy nowy i usuwamy stary, moze byc to grupa aby przyspieszyc

rolling update to mig praktywnie oportunistycznie jak to robic po kilka https://cloud.google.com/compute/docs/instance-groups/rolling-out-updates-to-managed-instance-groups

jesli 100VMs - cattle bydlo a nie pets pet to trobleshuting, backupy, long running cattle - wyrzucmy jedna dodajemy druga

zwiekszenie pmieci w cloudsql - restart bazy

SLA - cos co z klientem podpisuje i zlamanie to kary SLO - bardziej agresywnie niz SLA i pod to roimy monitoring. Bo jesli nastopi degradacja to zlamiemy SLA - monitoring nas powiadomi

infrastruktua - pule,nody - ala tworzenia vm-ek - interakcja z gcp

gcp sri ebooks

binary authorization - specyficzne rozwiazanie dla kubernetesa. Jesli tworzymy klastery to mowimmy aby byl stworzony w trybie binary authorization - wymagamy pewnyc rzeczy od image ktore moga byc zdeployowane na klastrze. Tworzymy polityke np pozwalam na deploy image ktore spelniaja moje wymagania typu wersji runtime . Image idzie przez sciezke to zbiera atestacje .Jesli spelnia to dostaje podpisy. I jak przychodzi to mechanizm binary authorization bo dopusci

CSEK customer suplied encryption key CMEk customer managment encryption key

Zarzadzac kluczami ale trzymac w chmurze to CMEK - tworzymw w KMS tworzymykeyrin - katalog na nasze klucze jak sa chronione hadwarowo hms czy softwarowo, jak rotowac

CSEK - mamy swoj mechaniz zarzadzane klucami i tylko w momecie szyfrowania sa wysylane do googla - tylko dla kilku uslug vm,buckety,biqquery

Partner Interconnect SLA jest rozbity na Googla i Parn\tnera Dedicate to SLA czysto googlowe

phisica conectivity, private = interconnect

BigQuery - dry run ilosc danych i sprawdzic w kalkulatorze Jak zoptymalizowac zapytania Zasady W GQ limit clouse - ograniczyc ilosc danych ktorych wypluje limit 100 ale aby dostac te 100 nic nie zmieni ilosc danych przeprocesowanych bedzie taka sama Unikanie select * Mozliwosc partycjonowania - time based - po dacie sie expirowal , odpalac zapytaniaco miesiac - partycjonowanie bedzie rozwiazanie

Case Study

Mountskirt Games sac w GCP mobile games

ingres - servic dla serwisow

Spner - > 60 TB wyrosniecie, baza relacujna,global

jak deployuje, scaluje w kubernetesi i infrastruktura i workload jak ustawic jak z

komendy jak zmienic ilosc nodow jak wlaczyc autoskalowanie

montkirt games - szczegole nrodzjae nodow premptible, nodow z GPu - to node pool node poll- to template - okrela rodaj vm-ek wewnatrz nodepooli - wszystkie beda identyczne jak dodac kolejna node poole

wybor nodepoll przez microservice pod affinity, node affinity,tainty sklejac rozne workloady lub rozszczepiac np webserwer i cache - sklejanie albo w ramach jednego poda a jesli sa osobnymi podami to reguly affinity antiaffinity - rozrzuanie microserwisow - np microserwisy w innych zonach wymuszenie

tainty - zrobic na nodach - oznaczamy jako trendowate - nie scheduluj tm nic kubernetesie. Dopiero w definicji deploymentu okreslam ktore sa odporne na tainty. Np drogie node poole tylko wybrane workloady

relesy nowych wersji w kubernetesie cunary relesse, zwykly rollout, blue-grine - inaczej robimy inne komendy inaczej ogarniamy service bo serwis zbiera pody z labelami np doklejac pody do istniejacego serwisu, wprowadzic nowa wersje serwisu i sie przelaczyc w blue-green nowe wersje -CI/CD - csr - repo codu git zaradzany -> budujemy-> cloud build -> container registry (artifact registry -szersz wieciej artefaktow mozna wrzucac bo w container registry tylko obrazy)-> deploy-> srodowisko testowe-> skanowanie artefaktow np pod katem zagrozen -> dodawac atestacje dla binary autorization -(CD) -> usluga cloud Deploy - nowa usluga ge cloud build -triggery - reagowac cos ie dzieje w csr repository np commit wypchniecie nowej wersji codu to cos ma sie zadziac - wybudza i buduje artefact

GPU,preemtible z GPU,preemptible - node pool

Migrate workload to gke - vm-ka jest konwertowana do kontenera Migrate for gke - usluga do skonteneryzowania vm-ki https://cloud.google.com/kubernetes-engine/docs/concepts/migration

telemetry - cloud monitorin logi w kubernetesie - pody wysylane do noda i d cloud logingu

spaner regional/multi-region instancja multitenant - gdiz tworzymy gazy

advance analitics - zbieranie telemetry i logi z gier i wyciagac wnioski

zrodlo---> pub sub ----> data flow ---->bigquery (standrd etl-owy)

laby skill badge

Spotkanie 2022-06-29

Katarzyna Balewicz PII personal identyfication information

jak nie autopilot ale najpierw sklowanie infra a potem skalowanie app

vm-ka pojedynczy kontener - mozna zdeployowac vm-ka nie jest manage a kubernetes jest nfs - single plce of failer - wiec tryb enterprise bo bedzie regional min 1TB danych .Jak zdeployuiemy bedziemy miec 1 adres

czesc uslug zrealizowana jest przez vpc peering - to jest triki - bo jest notransitivity tylko bezposrednia siec ma dostep do cloud sql-a czy file store

bigtable - jaks ie dobierac do danych - 2 narzedia cbt preferowane i drugie jest

instance template mozna stworzyc tylko z image vm-ki mozna stworzyc ze snapshotu

google suportuje image sa swierze i spaczowane ale jak image uzyjemy to nie bedzie w tej vm-ki nie patchuje - my jestesmy za to odpowiedzialni

wvm-kach patchowanie musimy dbac

w kubernecie - dopisujemy sie do release channel albo static i bedziami za upgrade sami odpowiedziali. Rekomendacja jest release chanel - to upgraduje Control Plain (schowany i zarzada google ) Jesli patchuje to vm-ka z control playn znika i tracimy kontak z control playm. Wszysko smiga ale nie mozemy wydawac nowych wersji. Jesli nie chcemy przestojow to wybieramy regional bo sa wtedy 3 control plainy i zawsze jakis bedzie dostepny - rolling deployment Z nodami jest tak samo - tez upgrade - kontrolery dbaja o przeniesienie jak nod sie wylaczy

wszystkie logi kubernetesa londuja na vm-ce i za pomoca agenta sa sciagane dl cloud loggingu

ha w cloud sql jest wewnatrz regionu miedzy zonami bo male opoznienie

Konto serwisowe - to projekt nie jest ograniczeniem - mozna nadawac uprawnienia sa w innych projektch

Case study

TearmEartch

firma produkuje pojazdy do przemyslowych pojazdow sprzedaja przez dilerow i serwisuja

bazuj na IoT - czyli urzadzenia ktore sa jakos polaczone i zbieraja dane. W trybie rzeczywistym wysyla dane albo zbiera dane i jak zjedzie do bazy i wtedy uploaduje dane

Typowy scenariusz IoT: IoT Core ---> pu/Sub--> dataflow IoT core zarzadzanie ewidencjonwanie urzadzen i szyfrowac dane

ida z pubsub w trybie streaming prez pubsub alo w trybie offline przez cloud storage

za tym bedzie bigtable albo bigquery

bigtable uzywamy gdy danych bardzo duzo

bigtable 100000 rows/s a teraz milion w niektorych regionach A W INNYCH 500 000 CZYLI NIE JEST OGRANICZENIEM

Wiec jesli analize danych nie w czasie rzeczywistym to bardziej big query

bigtable - bardzo male opoznienia latency pojedyncze milisecond - bo chcemy sterowac urzadzeniem - i do bigtable podpieta logika ktora przetworzy dane i wyslac sterowanie do urzadzenia w czasie rzeczywistym

jesli przetwarzanie, analityka, uczenie maszynowe - data lab, data studio, looker

inerconnect - bo duzo ilosci danych - pytania na ten temat dedicated w trybie HA -jak zapewnic wysokodostepnosc do inerconnecta

metropolian area

https://cloud.google.com/network-connectivity/docs/interconnect/tutorials/dedicated-creating-9999-availability

AI - kiedy przewidywac kiedy cos sie zepsuje kiedy cos wymienic to swoje modele vertex AI

CI/CD - standardowe - jak sieserwisy lacza

Brak info o srodowiska compute - nie wiemy gdie sie zepoloyowac - ale pytania do api API gee bardziej pasuje bo partnerzy delerzy - bo sposo na monetyzacje - nalicanie prowizji Cloud Endpoints

Jakie srodowisko compute - eksperymenty developerom np stworzmy oddzrielne projekty i zepnijmy pipline ci/cd i testy ktore przejda przez srodowiska np w gcp binary authorization

secrets and keys

klucze do szyfrowania danych

google zarzadza CINEK,CISEK, KMSA,HSM-a

w KMS stworzcie keyring i klient symetryczny moremy rotowac a asymetryczny nie mzemy

sekrey - hasla przechowywac to secret manager

zewnetrzny to hashiorp vault jak zarzadzac uprawnieniami do secretow - mozna nadac do poszczegolnych secretow

osobny projekt z secret mang. do sys prod a osobny do nie prod

Dev nie miec dostepu do secret manag a tylko kont serwisowe w ramach ktorych dzialaja uslugi

pytania zamiana kapex na opex

Odnosnie API fokusuja na API ale Cloud endpointow - czyli wszysko w chmurze - wtedy nie monetyzujemy i nie ograniczamy

Cloud Ruoter BGP - dynamicznie wymienia topologie

12 pytan o casestudy a 6 sa standardowe nawet bez znajomosci a w 6 trzeba znac case study

https://cloudlx.sjc1.qualtrics.com/jfe/form/SV_e2wogp4l1a2ByZL?modality=Cert-Journey&region=EMEA&sessiondate=2022_06_29&facilitatorID=Maciej_Zachariasz&host=Cloudteam&classcode=PKOBP_PCA03_2022_05_18

walczer do grudnia katarzyna balewicz

https://webassessor.com/wa.do?page=publicHome&branding=GOOGLECLOUD

6.30 am rano

Walewicz Katarzyna - organizator