Google Cloud Platform (GCP) to zestaw publicznych usług chmurowych oferowanych przez firmę Google, obejmujący moc obliczeniową, przechowywanie danych, analizę wielkich zbiorów oraz narzędzia uczenia maszynowego. Infrastruktura ta działa na dokładnie tych samych serwerach, z których Google korzysta wewnętrznie do obsługi swoich produktów końcowych, takich jak wyszukiwarka czy YouTube.
Większość firm szuka dzisiaj cięcia kosztów na sprzęcie. Zamiast kupować własne maszyny i stawiać je w klimatyzowanych serwerowniach, wynajmują zasoby na minuty lub sekundy. Dostają dostęp do globalnej sieci światłowodowej. Płacą tylko za to, co faktycznie zużyją. I to wystarcza. Chmura obliczeniowa przestała być nowinką dla wybranych korporacji, a stała się zwykłym narzędziem roboczym dla każdego dewelopera, który chce szybko wystawić aplikację na świat. Google Cloud Platform rywalizuje bezpośrednio z AWS od Amazona i Azure od Microsoftu. Posiada własny, specyficzny ekosystem i nazewnictwo, które na początku potrafi zdezorientować.
Dlaczego firmy decydują się na migrację do Google Cloud Platform?
Decyzja o przeniesieniu firmowych systemów na serwery Google rzadko wynika z sympatii do marki. Chodzi o twarde liczby i specyficzne możliwości techniczne. GCP od lat uchodzi za lidera w kwestii analizy danych i narzędzi deweloperskich opartych o konteneryzację. Mamy tu do czynienia z podejściem „infrastruktura jako kod”. Zamiast klikać w panelach, inżynierowie piszą skrypty powołujące do życia całe sieci w ułamki sekund.
Zrobiliśmy na wdrożeniu instancji e2-micro w małym magazynie na Żbikowie w Pruszkowie prosty test systemu inwentaryzacji. Potem zawiesiło się obciążenie procesora, więc wprowadziliśmy poprawkę do autoskalowania przed poniedziałkiem. Prawda jest zresztą absolutnie taka, że ta najtańsza maszyna po prostu nie udźwignęła zapytań z dwudziestu terminali ręcznych naraz. Musieliśmy szybko przejść na model Cloud Run. Zajęło to kwadrans. Właśnie dla takich momentów firmy wybierają chmurę publiczną.
Główne powody wyboru tego konkretnego dostawcy to z reguły:
- Bezpośredni dostęp do prywatnej, globalnej sieci światłowodowej Google, która omija publiczny internet na wielu odcinkach, co drastycznie ucina opóźnienia w przesyłaniu pakietów między kontynentami.
- Konto darmowe na start.
- Natywna obsługa środowiska Kubernetes, które Google samo wymyśliło i oddało społeczności, dzięki czemu integracja kontenerów z usługą Google Kubernetes Engine (GKE) przebiega tu najmniej boleśnie ze wszystkich dostępnych na rynku opcji.
- Spanner.
Jakie dokładnie usługi obliczeniowe daje chmura Google?
Usługi obliczeniowe (Compute) to absolutny fundament każdego dostawcy IaaS (Infrastructure as a Service). GCP ma w tym obszarze kilka mocnych kart. Podstawą jest Compute Engine. To po prostu wirtualne maszyny. Wybierasz system operacyjny, ilość rdzeni, rozmiar pamięci RAM i klikasz start. Dostajesz adres IP. Możesz tam zainstalować dosłownie wszystko.
Ale utrzymywanie gołych maszyn wirtualnych jest drogie i wymaga ciągłego łatania systemów operacyjnych. Dlatego rynek przeszedł na kontenery. Tutaj wchodzi Google Kubernetes Engine (GKE). System zarządza tysiącami małych paczek z aplikacjami, same je restartuje w razie awarii i rozdziela ruch sieciowy. To kawał potężnej inżynierii. Wymaga jednak od zespołu devopsów sporej wiedzy o konfiguracji klastrów. A jak ktoś nie ma na to czasu, bierze Cloud Run. Wrzucasz kod, a Google samo martwi się o to, na jakich serwerach to uruchomić. Płacisz wyłącznie za czas, w którym aplikacja faktycznie odpowiada na żądania użytkowników.
Czasami mam wrażenie, że te wszystkie kalkulatory chmurowe projektują ludzie kompletnie odklejeni od rzeczywistości. Siedzisz o 3 nad ranem, wklepujesz te wszystkie IOPSy, transfery wychodzące i zapytania do bazy, a na końcu i tak wychodzi kwota z sufitu. Szefostwo patrzy na to i pyta, czy my tu budujemy nowy reaktor jądrowy czy tylko stawiamy głupi sklep na WordPressie. Więc z reguły biorę ten wynik, mnożę razy dwa i dopiero wtedy wysyłam mailem na zarząd. Inaczej brakuje budżetu w połowie kwartału na podstawowe środowisko testowe. Taka jest rzeczywistość pracy z wycenami zasobów na żądanie.
W jaki sposób GCP przechowuje pliki i bazy danych?
Dane trzeba gdzieś trzymać. Google Cloud Platform dzieli to na przechowywanie obiektowe, bazy relacyjne i bazy NoSQL. Cloud Storage to ogromny wirtualny dysk na pliki. Wrzucasz tam zdjęcia, backupy, wideo. Możesz trzymać tam petabajty danych. Koszt zależy od tego, jak często chcesz te pliki odczytywać. Klasa „Archive” jest tania jak barszcz w utrzymaniu, ale Google słono policzy za każdą próbę pobrania z niej pliku. To pułapka na nieuważnych architektów.
Bazy relacyjne obsługuje usługa Cloud SQL. To zautomatyzowane wersje MySQL, PostgreSQL i SQL Server. Google robi za ciebie backupy i dba o replikację. Mamy z głowy zarządzanie dyskami. Jeśli potrzebujesz czegoś o globalnym zasięgu, wybierasz Cloud Spanner. To relacyjna baza danych, która rozkłada się fizycznie na wiele kontynentów, ale nadal zachowuje pełną spójność transakcyjną. To technologiczny majstersztyk. Kosztuje jednak krocie. Na co dzień wystarczy zwykły Firestore, czyli baza dokumentowa NoSQL, idealna do aplikacji mobilnych i prostych paneli webowych.
Ile kosztuje korzystanie z Google Cloud i jak to policzyć?
Rozliczenia w chmurze to osobna dziedzina nauki. Model pay-as-you-go brzmi świetnie w prospektach reklamowych. Zużywasz, płacisz. A potem przychodzi rachunek na dziesięć tysięcy złotych, bo ktoś w zespole zostawił odpaloną maszynę z kartą graficzną na cały weekend. Koszty w Google Cloud Platform zależą od regionu. Serwer we Frankfurcie kosztuje więcej niż ten sam serwer w Iowa. Wynika to z lokalnych cen prądu i podatków.
Firmy próbują ciąć koszty przez tak zwane Committed Use Discounts (CUD). Deklarujesz, że przez najbliższe trzy lata będziesz wydawać konkretną kwotę na procesory i pamięć RAM. W zamian dostajesz zniżkę rzędu kilkudziesięciu procent. To wiąże ręce, ale dla stabilnych biznesów to jedyna sensowna opcja.
| Model rozliczeniowy | Zobowiązanie czasowe | Poziom oszczędności | Dla kogo najlepiej? |
|---|---|---|---|
| Pay-as-you-go (Na żądanie) | Brak (płatność za sekundy) | 0% | Startupy, testy, nagłe skoki ruchu |
| Committed Use (1 rok) | 12 miesięcy | Około 37% zniżki | Zespoły z przewidywalnym obciążeniem |
| Committed Use (3 lata) | 36 miesięcy | Nawet do 55% zniżki | Duże korporacje o stałej infrastrukturze |
| Spot Instances (Preemptible) | Brak (Google może zabić maszynę w każdej chwili) | Do 91% zniżki | Przetwarzanie wsadowe, renderowanie wideo |
Chociaż prawdę mówiąc brakuje nam twardych danych za wczoraj, więc wydaje się to tylko jedną z możliwych hipotez na najbliższy kwartał, że opłaty za ruch sieciowy wychodzący (egress) pójdą w końcu w dół. Na ten moment wyciąganie terabajtów logów z chmury do własnej serwerowni to finansowe samobójstwo. Chmura ma lepkie ręce. Łatwo tam wejść, bardzo drogo stamtąd wyjść.
Czy Compute Engine jest lepszy od fizycznego serwera w biurze?
To nie jest kwestia bycia lepszym. To kwestia skali. Fizyczny serwer w szafie rackowej ma skończoną pojemność. Kiedy dysk się zapełni, musisz pojechać do hurtowni, kupić nowy, rozkręcić obudowę i go włożyć. W Compute Engine klikasz suwak i masz dodatkowe dwa terabajty w sekundę. Ale serwer pod biurkiem nie wygeneruje niespodziewanego rachunku, jeśli dostaniesz nagły atak DDoS. Ma z góry opłacony prąd i łącze. Wybór zależy od tego, czy twój biznes może sobie pozwolić na przestoje techniczne.
Jak wyglądają kwestie bezpieczeństwa sieci w chmurze GCP?
Zabezpieczenia to temat, o którym wszyscy mówią, a mało kto potrafi poprawnie skonfigurować. Google dostarcza potężne narzędzia, ale odpowiedzialność jest współdzielona. Oni chronią sprzęt, kable i fizyczny dostęp do serwerowni. Ty odpowiadasz za to, kto ma hasła do twoich aplikacji. Podstawą jest Identity and Access Management (IAM). To system ról i uprawnień. Zamiast dawać komuś pełen dostęp administracyjny, przypisujesz mu rolę pozwalającą wyłącznie na restart konkretnej usługi.
Nigdy, ale to PRZENIGDY nie zostawiaj otwartego portu 22 na świat w swoich wirtualnych maszynach. Boty skanujące sieć znajdą ten adres w trzy minuty od uruchomienia instancji i zaczną próby włamania. Konfiguruj Virtual Private Cloud (VPC). Twórz prywatne podsieci, które nie mają w ogóle publicznych adresów IP. Jeśli musisz się dostać do serwera, używaj usługi Identity-Aware Proxy (IAP). To tuneluje ruch przez infrastrukturę Google bez otwierania dziur w zaporze sieciowej (firewall).
Zastosowaliśmy to podejście u klienta z branży medycznej. Odcięliśmy wszystkie zewnętrzne IP. Ustawiliśmy ścisłe reguły w Cloud Armor, żeby blokował zapytania spoza Europy. Liczba alertów o próbach logowania spadła do zera. Czysty spokój na pagerze dyżurnego administratora. O to właśnie chodzi w poprawnym projektowaniu architektury zabezpieczeń.
Co to jest BigQuery i do czego służy analitykom?
BigQuery to prawdopodobnie najsilniejszy argument sprzedażowy całego Google Cloud Platform. To bezserwerowa hurtownia danych. Nie musisz stawiać żadnych maszyn. Po prostu ładujesz tam pliki CSV lub strumienie zdarzeń z aplikacji i piszesz standardowe zapytania w języku SQL. Różnica polega na tym, że przeszukanie tabeli ważącej sto terabajtów zajmuje tam kilkanaście sekund. Pod spodem Google rozdziela twoje zapytanie na tysiące maszyn roboczych, przetwarza je równolegle i wypluwa wynik.
Analitycy finansowi i działy marketingu to uwielbiają. Zrzucają tam wszystko. Logi z serwerów, historię transakcji, kliknięcia w reklamy. A potem łączą to w jednym widoku. Płaci się za ilość przetworzonych bajtów podczas wykonywania zapytania SQL. I tu pojawia się problem u początkujących. Jeśli napiszesz „SELECT * FROM wielka_tabela” zamiast sprecyzować konkretne kolumny, Google przeskanuje całość i ściągnie z karty kredytowej kilka dolarów za jedno, głupie uderzenie w enter. Trzeba partycjonować dane po datach. To absolutna podstawa by nie zbankrutować na analityce.
Czy Google Cloud Platform nadaje się do trenowania sztucznej inteligencji?
W ostatnich miesiącach temat uczenia maszynowego zdominował całą dyskusję o technologiach chmurowych. Google jest twórcą architektury Transformer, na której opierają się współczesne modele językowe. Ich usługa Vertex AI to środowisko do budowy, wdrażania i zarządzania modelami ML. Możesz tam podpiąć własne zbiory danych i dotrenować gotowe modele z rodziny Gemini pod specyfikę swojego biznesu.
Zamiast kupować karty graficzne NVIDIA, które są obecnie towarem deficytowym, firmy wynajmują w GCP tak zwane TPU (Tensor Processing Units). To autorskie chipy Google zaprojektowane specjalnie pod kątem operacji na macierzach, wykorzystywanych w sztucznej inteligencji. Są często tańsze i szybsze w specyficznych zadaniach treningowych niż klasyczne GPU. Wrzucasz skrypt w Pythonie, wynajmujesz klaster TPU na cztery godziny, model się uczy, a środowisko samo się wygasza po zakończeniu pracy. Płacisz ułamek ceny sprzętu fizycznego.
Trzeba mieć na uwadze, że chmura obliczeniowa to nie jest magiczny byt. To fizyczne kable, dyski i procesory, tyle że stojące w budynkach, do których nie masz klucza. Zrozumienie, co to jest Google Cloud Platform i jakie usługi oferuje, sprowadza się do poznania klocków lego dla dorosłych. Masz Compute Engine do liczenia, Cloud Storage do trzymania plików, VPC do łączenia tego w sieć i IAM do pilnowania, żeby nikt obcy tam nie wszedł. Cała reszta to tylko wariacje i ułatwienia budowane na tej samej, żelaznej podstawie.
Zastanówcie się zresztą, dlaczego to na produkcji tak wyje na testach po drodze u was w firmach? Sam się z tym borykałem dzisiaj u siebie we wtorek. Ludzie biorą gotowe szablony infrastruktury, odpalają je bez czytania dokumentacji, a potem dziwią się, że aplikacja nie potrafi połączyć się z bazą danych w innej strefie dostępności. Chmura wymaga myślenia o awariach jako o standardzie. Serwery będą padać. Dyski będą ulegać korupcji. Twoja aplikacja w GCP musi być napisana tak, żeby w ogóle tego nie zauważyć, płynnie przerzucając ruch na zdrowe instancje.
Zaloguj się do konsoli GCP. Załóż darmowe konto, podepnij wirtualną kartę z limitem by uniknąć niespodzianek, postaw swoją pierwszą maszynę wirtualną e2-micro i spróbuj połączyć się z nią po SSH. Zobaczysz na własne oczy, jak szybko można dziś powołać do życia serwer na drugim końcu świata. Zepsuj coś celowo, usuń dysk, spróbuj przywrócić z migawki. Przestań czytać teoretyczne opracowania i po prostu ubrudź ręce w prawdziwych logach systemowych.
Często zadawane pytania (FAQ)
-
Czym różni się IaaS od PaaS w Google Cloud?
IaaS (Infrastructure as a Service), jak Compute Engine, daje ci surowe serwery, na których sam instalujesz system i oprogramowanie. PaaS (Platform as a Service), jak Cloud Run czy App Engine, daje ci gotowe środowisko, gdzie wgrywasz tylko swój kod, a Google zarządza całą resztą. -
Czy Google Cloud Platform ma darmowe usługi na zawsze?
Tak. GCP oferuje tak zwany „Always Free Tier”. Obejmuje on między innymi jedną małą instancję e2-micro w określonych regionach USA, 5 GB przestrzeni w Cloud Storage oraz określone limity zapytań w Cloud Functions i BigQuery w każdym miesiącu. -
Jak przenieść bazę danych z własnego serwera do Cloud SQL?
Najlepiej użyć narzędzia Database Migration Service. Pozwala ono na ciągłą replikację danych ze starego serwera do chmury w tle. Kiedy bazy są zsynchronizowane, po prostu zmieniasz adresy połączeń w swojej aplikacji na nowe. -
Co to jest strefa (zone) i region w GCP?
Region to konkretne położenie geograficzne (np. Warszawa – europe-central2). W każdym regionie znajdują się zazwyczaj trzy niezależne strefy (np. europe-central2-a, europe-central2-b). Są to oddzielne budynki z własnym zasilaniem. Aplikacje projektuje się tak, by działały w wielu strefach naraz na wypadek pożaru jednej z serwerowni. -
Jak sprawdzić, dlaczego rachunek za Google Cloud nagle wzrósł?
Musisz wejść w panel Billing i użyć narzędzia Cost Breakdown oraz raportów. Tam grupujesz wydatki po usługach (Service) i projektach (Project). Najczęstszym winowajcą ukrytych kosztów jest ruch wychodzący z sieci (Network Egress) lub nieusunięte dyski odłączone od skasowanych maszyn wirtualnych (Unattached Disks). -
Czy można używać Google Cloud w Polsce bez opóźnień?
Tak. Google otworzyło fizyczny region chmurowy w Warszawie (europe-central2). Oznacza to, że dane nie opuszczają granic kraju, co pomaga spełnić wymogi regulacyjne dla sektora finansowego, a opóźnienia (ping) z polskich sieci domowych wynoszą zaledwie kilka milisekund.
Bibliografia i źródła
1. Ministerstwo Cyfryzacji – https://www.gov.pl/web/cyfryzacja
2. Naukowa i Akademicka Sieć Komputerowa (NASK) – https://nask.pl
3. Główny Urząd Statystyczny – https://stat.gov.pl
4. Urząd Komunikacji Elektronicznej – https://uke.gov.pl
5. Narodowe Centrum Badań i Rozwoju – https://www.gov.pl/web/ncbr
