PCA 스터디잼 라이브 요약 발췌

  • 세션 제목 : Google Cloud Study Jam Online – KR
  • 세션 일자 : 2020년 4월 21일 오후 3시~4시 10분
  • 세션 진행 : 박기택(Google Cloud Instructor – APAC)
  • 세션 다시보기 : 유튜브 일부 공개(추후 비공개 예정)

자기소개

간단하게 제 소개 드리면, 제 이름은 박기택이라고 하고요. 

혹시나 오늘 세션 이후에 궁금한 게 있으시면 이메일과 링크드인으로 문의를 주시면은 최대한 빠른 시간 내로 답변 드리도록 하겠습니다. 가능하면 기술적인 질문을 주시면 좋을 것 같고요. 

그외에 나머지 프로그램 관련된 것들은 현지님께 이메일을 주시면 되겠습니다.

Agenda

  • Why get Google Cloud Certified?
  • Google Cloud Certification Overview
  • Certification Preparation Resources
  • Practice Exam Question Review – Cloud Architect
  • Q&A

오늘은 간단하게 자격증 소개를 드리고, 어떻게 준비할 수 있을지, 예상 문제 풀어보는 시간을 가지겠다. 목표는 과감하게 20개 정도 문제를 가져왔는데, 아마 시간은 안 될 것 같긴 하지만 최대한 많이 설명드리겠다. 

#Why get Google Cloud Certified?

수진 : 저번 ACE 스터디잼 온라인과 유사한 내용이기 때문에 이미지 없이 간단히 발췌하겠습니다.

처음이신 분들을 위해 간단하게 저희 자격증 프로그램에 대해서 소개 드리겠다.

‘왜 구글 클라우드 자격증을 따야되냐?’라는 질문을 많이 받는다.

여러가지 이유가 있겠지만 네가지 정도로 정리를 해보았다.

Gain industry recognition!

인정을 받으실 수 있다. 기술이 워낙 빠르게 발전하기 때문에, 누가 어떤 기술을 가지고 있는지 정확히 알기 어렵다. 그런데 저희 구글에서 도장을 ‘이분은 전문가시다’라고 찍어드린다. 전세계적으로 recognition을 받고 있는 그런 자격증이다. 상당히 고급 레벨의 자격증이라고 생각하시면 된다. 

Validate your technical expertise!

그래서 이 자격증을 받으시면, 전문가로서 인정을 받으시는 거라고 생각을 하시면 될 것 같다.

IT 자격증 중에서, 제일 가치 있는 자격증이 아닌가, 개인적으로 생각해본다.

자격증 가지고 있는 사람들 중에서 평균 연봉이 가장 높다고 한다. Solutions Architect와 Data Engineer가 유망한 직업이라고 조사 결과가 나온 바가 있다. 

요즘 클라우드로 넘어가고 있고, AI와 머신러닝이 화두가 되다보니까 관련 직종이 많아지고, 필요해지지 않나 생각이 든다. 남들보다 조금 앞서서 전문성을 인정 받으시면 좋지 않을까 생각을 한다.

Take your career to the next level!

그래서 커리어에도 도움이 많이 될 수 있겠죠. 

Wear cool Swag!

마지막으로 선물도 드린다.

#Google Cloud Certification Overview

자격증을 왜 따야되는 지는 간단하게 설명 드리고, 소개를 좀 더 해드리겠다.

대부분 PCA를 준비하실 것 같다.

이번에 PCA를 따게 되시면, PCNE나 PCSE와 겹치는 부분이 많기 때문에, 그쪽도 차후에 도전해보시는 것도 좋을 것 같다

자격증을 따기 위해 어떠한 공부를 해야하는지 안내해놓았다.

대부분 잘 따라하시는 것 같아서, 자세한 설명은 생략하도록 하겠다.

그런데 반드시! Coursera <Architecting with GCE> 과목은 꼭 들으셨으면 좋겠다. 

Associate와 Professional 차이를 많이 물어보시는데, 기본적으로 IT 업계에서 3년 이상 일을 하셨다면 프로페셔널 레벨에 도전하셔도 좋을 것 같다.

가장 큰 차이점은 (프로페셔널 레벨 시험에는) Business Requirements가 추가된다.

‘이러한 비즈니스 환경에서, 너는 어떻게 문제를 풀거야?’같은 질문이 굉장히 많이 주어진다.

What to expect: certification exam details

  • 200달러
    • 할인 바우처 받으시면 200달러 보다 더 저렴하게 보실 수 있다. 
  • 2시간
    • 2시간이 길지만은 않다. 저도 시간이 촉박했다. 많이 준비하고 가시면 좋을 것 같다.
  • 테스팅 센터
    • 강남, 양재, 종로
  • 원하는 날짜에 응시
  • 객관식
  • 영어
    • 아직까진 영어로 제공을 하고있다. 사전에 영어로 준비하고 가시면 더 좋을 것 같다.
    • 여러분이 시험을 많이 봐주셔야, 저희가 시험을 한국어로 번역할 수 있다. 제가 한국어로 번역하려고 팀과 열심히 이야기하고 있는데, 아직 응시자 수가 미국이나 인도보다 적기 때문에 아직은 번역을 못하고 있다.

#시험 준비 자료 Certification Preparation Resources

Google Cloud training free labs

이미지를 클릭하면 Free Training Labs 해당 링크로 이동합니다.

구글에 ‘google cloud training free labs’ 검색하면, 저희가 무료로 퀵랩을 할 수 있는 것도 추가적으로 드린다.

혹시 지금 하고 있는 것 이외에 실습을 하고 싶으신 분들은 들어가셔서 테스트 해보셔도 좋을 것 같다.

 지금부터 간단한 개념 소개, 케이스 스터디, 예상 문제 풀어보는 시간 갖겠다.

잘 아시겠지만, 저희 GCP에는 제품이 100개가 넘는다.

날마다 새로운 제품들이 등장한다. 

Google Cloud 4 words

전체적인 빅픽처를 한번 보고싶다 하시는 분은 구글에 검색하시면

https://github.com/gregsramblings/google-cloud-4-words

구글 클라우드 제품들을 간단하게 네 단어로 설명을 해놓은 이미지 파일을 하나 보실 수 있을거다.

제품들이 너무 많아서 헷갈리는 분들은 이거 보고 간단하게 정리해보시면 좋을 것 같다.

Products on GCP

시험을 위해서 이 모든 제품들을 다 알 필요는 없다.

이 중에서 중요한 제품들만 담아보았다. 이 정도에 있는 제품들은 많이 아실 것 같다. 이런 것들을 중심으로 보시면 좋을 것 같다.

Compute 제품군

Compute 과 관련된 이 네가지 제품의 차이들, 어떠한 경우에 쓰는지, 언제 쓰는지 정도는 다 아실거다. 

잘 모르시는 분들은 Coursera 가셔서 Architecting with Google Compute Engine 이라는 강의를 수강하시면 대단히 감사하겠다.

간단하게 설명 드리면 Compute Engine은 VM이다. 

메모리, CPU 그리고 디스크에 붙여서 사용하시는 제품이다. 가장 기본적인 제품이다. 

서버로 활용할 때 Compute Engine을 활용하면 가장 적절하다.

Kubernetes Engine은 기본적으로 Managed Kubernetes Service이다. 기본적으로 컨테이너 기반으로 전환을 하고 있다. 구글에서는 오래 전부터 컨테이너를 사용하고 있었다.

컨테이너는 너무 많다. 구글에서는 컨테이너를 매주 40억개씩 만들고 있다. 관리할 친구가 필요하다. 그래서 Kubernetes란 친구가 관리를 해준다. 

온프레미스에서는.. 즉, 여러분의 데이터센터나 서버룸에서는 마스터노드를 하나 갖다놓고, 여러가지 워커노드를 가지고 클러스터를 구성하게 된다. 

그리고 마스터는 작업하는 친구(워커 노드)들을 관리해야 한다. 근데 그것도 귀찮다. 

그래서 “저희 구글에서 관리해드리겠습니다.”하는게 Google Kubernetes Engine이다. GCP에서 Kubernetes를 사용하고 싶으실 때는 Google Kubernetes Engine을 사용하시면 된다.

App Engine은 그냥 PaaS다. 서버리스 제품이다. 여러분이 인프라를 관리할 필요가 없다. 코드만 작성하여 제출하면, 알아서 관리해드린다.

“나는 간단한 이벤트 하나만 필요하다” 하시는 분은 Cloud Functions을 사용하시면 된다

Storage 제품군

비정형 데이터가 있다? 그럼 Cloud Storage 에 저장하면 된다.

정형 데이터가 있다? 그럼 데이터베이스에 따라서 Transactional이냐, Analytical냐 에 따라 구분이 가능할 것이다.

그리고 데이터의 형태에 따라서 SQL이냐, NoSQL이냐에 따라 달라질 것이고,

Cloud SQL, Cloud Spanner, Cloud Datastore, 그리고 (Cloud Datastore의)Version 2가 Firestore이다.

Analytical DB에서는 데이터가 아주 크다.

IoT 데이터, Time-series(시계열) 데이터는 Cloud Bigtable.

분석이 필요한 제품들, SQL을 필요로 한다는 BigQuery.

Bigdata 제품군

이런 제품들의 장점과 특징들을 잘 알고 있으면, 도움이 될 것 같다.

PDE 시험에서 좀 더 자세하게 다루지만, PCA 시험에서도 기본적인 것들은 알고 계셔야 한다.

Machine Learning 제품군

기본적으로 AI Platform(구 Cloud Machine Learning Engine).

여러분이 Tensorflow로 코드를 짠 다음, submit하시면, 

구글 데이터센터에서 학습을 시켜드리는, 그리고 Serving layer 에 deploy해주는 제품이다.

간단하게 하고 싶으면 AutoML.

Prediction만 하고 싶으면 Natural API, Vision API, Translate API.

PCA시험이기 때문에 자세하게 알 필요는 없지만, 어느정도 각각의 제품들의 개념과 어떻게 사용하는지, 장점 정도는 파악하고 계시면 도움이 많이 될 것이다.

Reference Data Pipeline Solution

빅데이터 관련하여 제가 늘 사용하는 차트다. 이 차트는 거의 외우다시피 하시면 좋을 것 같다.

크게 어려운 차트는 아니다.

Cloud Pub/Sub

실시간 데이터는 항상 Cloud Pub/Sub이 소화를 한다.

Cloud Pub/Sub이 받아서 데이터를 뿌려주면, 원천 데이터는 항상 문제가 많다. 지저분하다.

ETL 과정을 거쳐야 한다. 

Cloud Dataflow

Cloud Dataflow가 그 작업을 해준다.

Cloud Dataflow는 batch 데이터도, 스트리밍 데이터도 동시에 처리를 해주는 장점도 있다.

Cloud Dataflow를 거쳐서 깨끗해진 데이터는, BigQuery라든지 Bigtable에 보내서 분석을 할 수 있게 된다.

머신러닝을 하고 싶으면 AI platform을 붙여서 이용할 수 있다.

혹시 Hadoop이나 Spark를 사용하시는 분들은 Dataproc 을 쓰셔도 좋다.

그리고 요즘 DataFusion이라고 데이터 Integration을 도와주는 제품도 새로 나왔다. 

ETL 관련해서는 Dataprep이 UI가 잘 구현되어 있어서, 사용하셔도 좋을 것 같다.

전체적으로 자동화하고 싶다고 하면, Cloud Composer를 통해서라도 전체 파이프라인이나, 아키텍처를 자동화 시킬수도 있을 것이다.

제가 지금 빨리 말하고 있죠? 그 이유는 여러분이 잘 알고 계실거란 전제 하에서 말씀드리는 겁니다. 혹시 지금 제가 말씀드리는게 절반도 이해가 안되시는 분들은, 꼭 코세라 가셔서 해당 과목을 수강하시면 좋을 것 같다.

#Case Study Review

ACE 시험과 다르게, 프로페셔널 시험에서는 케이스 3개가 있다.

시험장에 가면, 화면이 두개가 나올거다.

왼쪽 화면엔, 케이스 스터디의 스토리가 쭉 나올거고요. 오른쪽 화면에서는 그와 관련된 질문이 나올거다.

수진 : 최근에 PCA 시험을 본 제 경우는 왼쪽이 문제, 오른쪽이 Case study인 화면이었습니다. 간단하게 그림을 그려놓았으니, 이 포스팅에서 확인 하시기 바랍니다.

저희 홈페이지에 저 케이스 스터디를 공개를 해놨다. 이걸 사전에 숙지하고 시험장에 가시면, 케이스를 읽을 필요가 없으실거다.

혹시 안 읽어보신 분들을 위해, 5분동안 읽는 시간 가지겠다.

Dress4win

여기는 웹, 앱을 서비스하는 패션 관련 회사다.

현재 온프레미스에서 작동을 하고 있다.

클라우드로 옮기려고 하고 있는데, 회사 내에 여러가지 function들이 있지 않겠어요?

실제 프로덕션 function도 있을거고, development(개발) function도 있을 것이고, 테스팅, 그리도 D.R.이라고 해서 Disaster Recovery. 여러가지 function들이 있을텐데.

그중에 프로덕션은 두고, 나머지 덜 중요한 부분들을 마이그레이션 하려는, 그러한 케이스였다.

제가 정리를 해보았다.

온라인으로 서비스를 제공 하는 업체. 웹 UI로도 제공을 하고, 모바일 앱으로도 제공을 하고. 사람들이 SNS를 통해 커뮤니케이션도 하고.

그리고 가장 중요한 부분인데, 굉장히 빠르게 성장을 했다.

서버가 10개에서 100개 정도까지 빠르게 성장한 상황이다.

근데 문제는 더 성장했을 때 IT인프라가 감당을 못한다는 거다. 그래서 클라우드로 옮기려고 하는 상황이라고 보면 된다.

몇가지 비즈니스 목표도 있다.

  • 경쟁에서 살아남아야 하고,
  • 새로운 기능을 넣어야 하고,
  • elastic해야한다. 즉, Autoscaling 가능해야 한다.

그러한 고려사항을 고려해서 설계를 해드려야 한다.

문제상황을 다시 정리해보면,

Phase 1을 저희가 다루고 있고,

Phase 2에서 아마 프로덕션도 마이그레이션 하겠죠.

저희가 여기서 덜 중요한 부분을 먼저 마이그레이션 하는게 저희의 목표가 되겠다.

그 다음에 CI/CD 부분이 고려가 되겠죠.

구체적으로 기술적인 면 살펴보겠다.

케이스를 보면, 어떠한 스펙에, 어떠한 장비를 사용하고 있는지 어떤 제품들을 쓰는지 나와있다.

예를 들어, 데이터 같은 경우는, MySQL와 Reddis를 사용하고 있다.

이런 경우에는 클라우드로 넘어오면 당연히 MySQL은 Cloud SQL로, Reddis는 Cloud Memorystore 제품을 사용하면 된다.

어플리케이션 관련해선, 마이크로서비스를 사용한다고 했고, Static한 것 관련해서는 Nginx를 쓰고있다.

이러한 것들이 클라우드로 넘어오게 되면 lift & shift를 하게 되겠죠.

VM같은 경우는 lift & shift해서 Compute Engine을 쓰면 된다. 혹은 Autoscaling을 빨리 하고 싶으면, App Engine을 쓰면 된다. VM이 굉장히 많으니까, 앞에 로드밸런서를 붙여줘야 한다.

지금 보니까, microservice based 아키텍처를 추구하는 것 같다. 그럼 당연히 클라우드에서는 쿠버네티스를 사용하기 때문에 GKE를 추천해줄 수 있겠다.

기존에서 옮길 때는 백업 용도, DR 용도로는 Cloud Storage가 적절하겠다.

로깅같은 경우는 저희 되게 좋은 제품 있죠? Stackdriver 활용하시면 로깅을 잘 확보하실 수 있을 거다.

그 다음에 보니까, Hadoop, Spark 사용하고 있다. 당연히 클라우드에서는 Cloud Dataproc을 사용하면 Managed Service가 가능하겠다.

Dataflow를 통한 데이터 프로세싱, BigQuery를 통한 분석도 가능할 것이다.

RabbitMQ를 사용했네요? RabbitMQ, Kafka 이런 제품들은 Cloud Pub/Sub으로 옮기면 되겠죠. Cloud Pub/Sub이 메시징을 잘 뿌려줄거다.

혹시 이벤트를 트리거링 할 일이 있으면, Cloud Functions을 사용하면 되겠다.

그 외에 다양한 Networking이나 Encryption 같은 것 역시, GCP에 다양한 제품들이 준비되어 있다.

네트워크는 당연히 VPN을 통해서 좀 더 안전한 네트워크를 구축할 수 있을 것이다.

Encryption 도 가능하다. 고객이 직접 가져오는 Customer-Supplied Encryption Keys 를 사용할 수 있고, 다양한 방화벽 정책 역시 사용할 수 있다.

간단하게 Dress4win 케이스를 분석해보았다.

크게 어렵진 않으시죠? 이렇게 시험 보시기 전에, 세 케이스 스터디를 쭉 한번 정리 요약을 해보셔도 좋을 것 같다.

TerramEarth

TerramEarth는 기본적으로 IoT 장비라고 보면 된다. 각 장비에서 데이터를 뿜어내고 있다.

뿜어내는 데이터를 FTP서비스로 올려서 ETL작업을 거쳐서 데이터 웨어하우스에 집어넣는 과정을 가지고 있다.

‘이걸 클라우드로 옮겼을 때 어떻게 사용할 수 있을까?’에 대한 고민을 우리가 하는 것이다.

비즈니스 포인트를 보자.

전세계 많은 곳에서 데이터가 올라온다.

현재 저희의 목표는, 

  • 최대한 3~4주 걸리는 다운타임을 1주일 이하로 줄이는 것이다.
  • 그리고 데이터를 Visible하게 볼 수 있는 것.

실제 IoT데이터라든지, 데이터가 오는 소스가 많을 경우에는 데이터를 실시간으로 확인하는게 굉장히 까다롭다.

그래서 저희가 Visibility를 올리는 작업을 해야한다.

바로 실시간으로 넘어가는건 까다로우니, 1단계 2단계를 거치는게 좋지 않을까 하는 개인적인 생각이 든다.

장비도 많고, 데이터도 엄청나게 많다. 이렇게 어마어마하게 많은 장비에서 데이터를 보냈을 때, 우리가 어떻게 처리할 수 있을까를 같이 보도록 하자.

기존 과정은,  ‘CSV파일을 FTP로 올려서, ETL 작업을 거쳐서, 데이터 웨어하우스에 집어넣는다.’. 이걸 GCP로 옮기게 되면,  FTP 그대로 사용하셔도 좋고, Pub/Sub 같은 걸 사용해도 되겠죠.

지금 같은 경우는, CSV파일을 사용하기 때문에, FTP를 그대로 사용하는 것도 나쁘지 않을 것 같다.

다만 프로세싱은 Dataflow를 사용하셔도 좋고, Dataproc같은 제품을 사용해도 좋다.

그 다음엔 데이터가, vehicle이 연결이 되어야 하는데, 거기서 하루에 9TB정도 데이터를 뿜어내고 있다.

아까 말씀드린 대로, Pub/Sub에서 소화를 할 수도 있고,  여러가지 관리하는 데 있어서 Cloud IoT Core라는 제품을 활용해봐도 좋을 것 같다.

참고로 오른쪽(열)에 있는 건, 아주 정답은 아니다. 그냥 제가 한번 생각을 해본 거다. 그리고 다른 엔지니어들이 생각해본거다. 그냥 추천사항이다.

다음에 batch 데이터들. 제 생각엔 Cloud Storage에 올려두면 가장 좋을 것 같다.

그다음에 Data visualization. 저희는 Data studio 라는 제품이 있죠. 최근에는 로커라는 제품도 등장했다.

여러분이 원하시면, 3rd-party 툴을 사용해도 좋을 것 같다.

Mountkirk Games

게임 회사인데, GCP로 옮기려는 상황이다.

높은 기대를 받고 있다.

저희의 목표는 full-managed Service.

사실 클라우드를 사용하는 가장 큰 장점이죠. “저희가 관리해드려요. 여러분들이 관리할 필요 없습니다.”

그런 것들을 최대한 활용하고자 하는게, 이 게임 회사의 목표다.

현재 상황을 분석해보면, 여러 대의 온프레미스 서버를 사용하고 있다.

그럴 경우, 옮길 때 당연히 서버에 있는 거 당연히 Compute Engine 서버 사용하면 되겠죠.

VM이 굉장히 많이 있으니까, 당연히 앞에 로드밸런싱을 붙여줘야겠죠.

로그 분석할 때는, Stackdriver만큼 좋은 제품도 없는 것 같다.

MySQL은, 당연히 Cloud SQL로 마이그레이션 하면 되는데.. 문제 상황을 보니까, Auto Scaling이 잘 되어야 된대요. MySQL 같은 경우는 오토스케일링이 잘 안되거든요?

그럴 경우엔, 제 생각으로는 Datastore를 사용하는 것을 추천을 드린다. SQL에서 NoSQL로 좀 바뀌는 상황이 생기긴 하겠지만..  Datastore를 사용하면 오토스케일링 기능을 잘 사용할 수 있다.

대표적인 예시는 <포켓몬 고>. 거기서 HTTP 로드밸런서랑, Datastore를 사용한 경험이 있다. 그런 레퍼런스를 참고하셔도 좋을 것 같다.

여러가지 분석을 위한 데이터 파이프라인 같은 경우도, Cloud Pub/Sub, Cloud Storage, Cloud dataflow, BigQuery 와 같은 제품들을 사용하면, 고객의 수요에 적절하게 대응할 수 있을 것이다.

#Practice Exam Question Review – Cloud Architect

세 케이스를 짧게 분석해보았다.

다 분석해서 드리려는 건 아니고, 이런 식으로 분석하면, 도움이 되지 않을까 예시를 드리는 거다.

세션 끝나고 돌아가셔서 차근차근 케이스 스터디를 읽어보시고, 제가 했던 방법으로 정리를 해보시면 많은 도움이 될 것 같다.

실제 시험장 가면, 왼쪽 화면에서 케이스 스터디가 나올 거고요. 오른쪽에 문제가 있을겁니다. 그럼 좀 더 효율적으로 문제를 푸실 수 있겠죠. 

이제 예상 문제를 풀어보겠다. 

저희 certification 홈페이지에 가시면 예상 문제가 있는데, 그 문제를 가져왔다.

그걸 바탕으로 풀어보시면 좋을 것 같고요. 가능하면 케이스 스터디와 관련된 문제를 중심으로 풀어보겠다.

참고로 저번 ACE 스터디잼 과정에서 이 세션을 들으신 분들은 좀 겹치는 내용이 있을 것 같다. 지난번 ACE 세션 때, 제가 사실은 PCA 문제를 가져온 거다.

본격적으로 시작을 해보겠다.

Q1. 

Because you do not know every possible future use for the data TerramEarth collects, you have decided to build a system that captures and stores all raw data in case you need it later. How can you most cost-effectively accomplish this goal?

A. Have the vehicles in the field stream the data directly into BigQuery.

B. Have the vehicles in the field pass the data to Cloud Pub/Sub and dump it into a Cloud Dataproc cluster that stores data in Apache Hadoop Distributed File System (HDFS) on persistent disks.

C. Have the vehicles in the field continue to dump data via FTP, adjust the existing Linux machines, and use a collector to upload them into Cloud Dataproc HDFS for storage.

D. Have the vehicles in the field continue to dump data via FTP, and adjust the existing Linux machines to immediately upload it to Cloud Storage with gsutil.

(1분 후)

아까 저희가 읽었던 케이스 스터디를 기반으로 한 문제다. TerramEarth 관련 이야기다. 

기존에는 FTP로 데이터를 올려서, 데이터 프로세싱 후, 데이터 웨어하우스에 집어넣는 아키텍처를 가지고 있었는데, GCP로 옮길 때 어떻게 해야되냐?

그런 문제가 있었다. 여기는 조건이 좀 더 들어가 있다.

in case you need it later..나중에 혹시 필요할 지 모르니까 저장해보자.’ 이런 거다.

그럼 아카이브 용도로 데이터를 저장해야 된다라는 조건이라는 걸 확인할 수 있다.

그럼 데이터를 던져서, GCP에 담아야되는데, 어떤 방법이 있을까?

  • 먼저, FTP를 그대로 사용할 수 있겠죠? FTP를 통해, 데이터를 업로드 할 수 있을 것 같고요.
  • 데이터를 스트리밍으로 보내게 되면, Cloud Pub/Sub이 데이터를 받을 수 있겠다.

이렇게 두가지 방법으로 데이터를 던질 수 있겠다.

보기를 보시면, A는 해당이 안되겠죠. B, C, D 중에 답이 될 거다.

그 다음에 문제를 다시 보시면, 혹시 나중에 필요할 지 모르니, 데이터를 저장하고 싶다고 나와있다.

그럼 Cloud Storage에 있는 Coldline이라든지 Archive를 사용하시면 되겠죠.

정답은 D다.

혹시나 익숙하지 않은 분들을 위해, 스토리지에는 네가지 클래스가 있다. 원래 스토리지 클래스가 3가지였는데, 한가지가 더 추가됐다.

  • 일반적으로 쓸 것은 Standard
  • 한달에 한 번 쓸 것은 Nearline
  • 분기에 한 번 데이터를 보고 싶으면 Coldline.
    • 예전엔 Coldline이 일년에 한 번이었다.
    • 이제 분기에 한번으로 바뀌었다.
  • 일년에 한 번은 Archive를 사용하시면 된다.

(B와 C에)HDFS 같은것이 있는데, 그거는.. 저희는 별로 추천하지 않는다.

그 이유는.. Coursera에 보시면 나온다. 궁금하신 분들은 Coursera  Data Engineering with Google Cloud 전문 자격증 강좌 보시면 이 내용을 설명하고 있으니 나중에 확인하시면 된다

다음 문제 가시죠.

Q2.

Today, TerramEarth maintenance workers receive interactive performance graphs for the last 24 hours (86,400 events) by plugging their maintenance tablets into the vehicle. The support group wants support technicians to view this data remotely to help troubleshoot problems. You want to minimize the latency of graph loads. How should you provide this functionality?

A. Execute queries against data stored in a Cloud SQL.

B. Execute queries against data indexed by vehicle_id.timestamp in Cloud Bigtable.

C. Execute queries against data stored on daily partitioned BigQuery tables.

D. Execute queries against BigQuery with data stored in Cloud Storage via BigQuery federation.

(1분 후)

정답은 B다. 역시 TerramEarth의 상황이다.

IoT와 같은, 엄청나게 많은 장비들에서 데이터가 뿜어져나오는 그런 상황이다.

실시간 데이터이고, 24시간동안 86400개의 이벤트가 있다고 한다.

그런 실시간 데이터가 왔을 때, 데이터를 저장을 해야한다. 실시간 데이터를 어디에 저장해야 할까?

..Bigtable 말고는 없다. 

다른 데 저장해도 되는데, 좀 성능이 떨어질 수 있다.

IoT 데이터, 실시간 데이터는 항상 Bigtable에 저장하시면 좋을 것 같다.

역시 이 부분이 설명이 필요하신 분들은 Coursera Data Engineering with Google Cloud 전문 자격증 강좌에 설명이 되어있다.

Cloud Architecting with GCE 과목에도 설명이 되어있다.  5단원 보시면 Storage 관련된 옵션이 설명되어 있는데, 거기서 확인 하실 수 있다.

‘Time-series 데이터, IoT 데이터는 Bigtable이다.’ 굉장히 간단하게 생각하고 넘어갈 수 있다.

잘 따라오고 계신가요? 대부분 잘 따라오고 계실거란 생각이 들고요. 이런 식으로 계속 진행을 해보겠다.

Q3. 

Your agricultural division is experimenting with fully autonomous vehicles. You want your architecture to promote strong security during vehicle operation. Which two architecture characteristics should you consider?

A. Use multiple connectivity subsystems for redundancy.

B. Require IPv6 for connectivity to ensure a secure address space.

C. Enclose the vehicle’s drive electronics in a Faraday cage to isolate chips.

D. Use a functional programming language to isolate code execution cycles.

E. Treat every microservice call between modules on the vehicle as untrusted.

F. Use a Trusted Platform Module (TPM) and verify firmware and binaries on boot.

(1분 후)

정답은 C와 D다. 보시면 이제 조금 감이 오시죠? 사람마다 문제 푸는 방법은 조금씩 다를 겁니다.

저만의 방법을 설명 드리자면, 문제를 보면서 어떠한 제품이 필요할 지, 어떠한 기술이 필요한 지를 생각을 하고, 그 다음에 보기를 읽는다.

지금은 보안과 관련된 질문이다. 보안 관련하여 뭐가 필요할까? 를 한번 고민해봐야겠죠.

이 문제는 좀 어려운 게, 답을 두개를 골라야 한다.

A부터 보면, Faraday cage? 뭔지 모르겠어요. 넘어가고.

B는 ‘functional programming language가 사용된다’. 이게 근데 보안에 도움이 되는 건가요? 기본 저의 IT 상식으로는 아닌 거 같습니다.

C는 마이크로서비스를 사용할 때, 서로 의사소통을 하는데, 서로를 신뢰하지 않는대요. 네! 당연하죠. 저희 구글의 원칙입니다. Trust Nothing. 서로 아무것도 신뢰 안 합니다. 그래서 걔네들이 서로 신뢰를 할 수 있도록 도와줘야겠죠.

컨테이너에서, 마이크로서비스에서 서로서로 통신할 때, 서로 신뢰를 안 하기 때문에, 신뢰를 도와주기 위해 sidecar 이라는 개념을 사용하고요. Amboy? 이런 것도 들어보셨나요? 그런 것들을 활용하여 Authentication도 하고요. 여러가지 encryption도 진행을 하게 되겠죠.

오픈소스로 그걸 도와주는 친구가 Istio라는 친구가 있다. 

그런 서비스 메쉬를 관리하는 친구, Configuration management 도와주는 친구, Anthos라는 제품도 나와다. 

D.. 사실은 어려운 문제였다. TPM이 뭔지 모르시는 분들이 대부분이셨을텐데. TPM은 기본적으로 encryption이 강화된 하드웨어라고 보시면 될 것 같다.

GCP에서 Shielded VM이라고 아시는지 모르겠다. 보안이 강화된 VM이라고 보시면 될 것 같다.

그래서 C, D다. 이 문제는 어려운 문제다.

근데, IT업계에서 3년 이상 되신 분들은 common sense로 풀 수 있는, 그런 문제가 되겠다.

저는 사실 문제를 풀 때, common sense를 되게 중요시 여긴다. common sense라는게 사실, 모든 사람이 common sense를 갖고있는건 아니다. 예를 들어서, ‘HDD와 SSD 중에서 뭐가 더 빠르냐?’  그럼 저희들은 “당연히 SSD가 더 빠르지!”라고 하겠지만. 하지만 저희 부모님이나 저희 와이프한테 이 질문을 던지면, “SSD가 뭐야?” 라는 답이 먼저 오게 된다.

그래서 경험이 좀 있고, IT관련 지식이 있는 분들에게는 이 질문이 common sense, 상식이라는 생각이 들고요. 혹시나 이게 ‘너무나도 어렵다, 어떻게 해야될지 모르겠다’ 하시는 분들은 조금 더 시간을 투자해서 공부하시면 좋을 것 같다. 그런 분들은 저희 document를 더 자세하게 읽어보시면, Shielded VM이나 이런 곳 뒤에 해당되는 내용이 적혀있을 거다.

조금 어려운 문제였다. 다음 문제로 넘어가겠다. 이건 30초 정도 드리겠다.

Q4.

Which of TerramEarth’s legacy enterprise processes will experience significant change as a result of increased Google Cloud Platform adoption?

A. OpEx/CapEx allocation, LAN change management, capacity planning

B. Capacity planning, TCO calculations, OpEx/CapEx allocation

C. Capacity planning, utilization measurement, data center expansion

D. Data center expansion, TCO calculations, utilization measurement

정답은 B. 역시 TerramEarth 관련한 문제다.

뭘 고려해야 되냐? 란 질문인데, 역시 이것도 Cloud 업계에선 약간의 common sense다. 죄송합니다. 사실 common sense란 말이 되게 애매한 말인데.. 클라우드에 경험이 있으신 분들은, 이걸 봤을 때, ‘어, 되게 쉬운 문제다!’ 생각을 하셨을거다.

문제를 보시면, 마이그레이션 이슈이기 때문에, ‘Data center expansion’? 이거는 절대 필요가 없죠. 그래서 C와 D는 자연스럽게 제거를 할 수 있다.

A, B를 보면 새로운 말이 많이 있다.

그런데 A를 보면, LAN change management가 있다. 이건 좀 이상하죠? LAN이라는건 Local Area Network인데. 그걸 어떻게 변화 관리할지에 대한 내용이거든요? 말이 안 되는 것 같다. 그래서 A도 제거를 할 수 있다. 소거 방법으로 했을 때, 당연히 B가 정답이 될거다. 30초만 생각하면 좋을 것 같아요. 

Capacity planning. 당연히 필요하겠죠. 클라우드로 옮길 때, 나의 Capacity가 어느 정도 될지, 어느정도 필요할지 당연히 계획을 세워야겠죠. 

TCO calculations. 전체의 cost를 당연히 계산해봐야한다.

OpEx/CapEx allocation. 이건 좀 말이 어려운데요. 

기본적으로 Operation cost다. 그 다음에 Capital cost다. 투자 비용, 운영 비용의 할당이 당연히 달라질 것이다. 

온프렘에선 직접 장비 다 사야된다. 그래서 투자비용이 많이 든다. 하지만 운영 비용은 많이 들지 않는다. 하지만 클라우드 같은 경우는 처음에 투자 비용이 거의 없다. 장비 구매할 필요도 없다. 저희가 다 사놨거든요. 여러분들은 그냥 쓰시기만 하면 되는데. 다만! 온프렘에 비해 운영 비용이 더 많이 발생하게 된다.

가끔 어떤 분들은 클라우드로 옮기면 더.. 비용을 절감할 수 있다고 하시는 분들이 계시는데. 설계를 굉장히 잘해야, 비용을 절감하실 수 있다. ‘항상, 100%, 모든 상황에서 더 저렴한 건 아니다.’ 란 말씀 드린다.

잘 계획하시고, 잘 설계하셔야 저렴하고 효율적으로 이용하실 수 있다란 말씀 드린다.

Q5. 

You analyzed TerramEarth’s business requirement to reduce downtime and found that they can achieve a majority of time saving by reducing customers’ wait time for parts. You decided to focus on reduction of the 3 weeks’ aggregate reporting time. Which modifications to the company’s processes should you recommend?

A. Migrate from CSV to binary format, migrate from FTP to SFTP transport, and develop machine learning analysis of metrics.

B. Migrate from FTP to streaming transport, migrate from CSV to binary format, and develop machine learning analysis of metrics.

C. Increase fleet cellular connectivity to 80%, migrate from FTP to streaming transport, and develop machine learning analysis of metrics.

D. Migrate from FTP to SFTP transport, develop machine learning analysis of metrics, and increase dealer local inventory by a fixed factor.

(1분 후)

정답은 C. 잘하셨다. 아마도 대부분 맞추셨을 거라고 추측해본다. 역시 TerramEarth와 관련된 문제였다.

문제를 보시면, 중간에 ‘customers’ wait time for parts’라는 말이 있다.

지금 waiting time이 너무 많은거다. 어디선가 뭔가 문제가 생겨서 시간이 굉장히 많이 소요되고 있다.

나중에 보시면 connectivity 이슈들이 좀 있거든요?

우리의 목적은 뭐죠? connectivity를 올려주는 게 목적이다. connectivity를 올려주면, wait time이 줄어들게 되겠죠. 그래서 connectivity 올려주는게 답이 되겠고요.

아까처럼 소거법으로 한번 보면, 저희는 결국 뭘 하고싶냐면.. 3주 걸리던 reporting time을 줄여주고 싶다. 

‘시간을 줄이는 것’에 집중해서 보기들을 보게 되면..

A.CSV 파일을 바이너리 파일로 바꿔준다. …이게 시간을 줄이는데 도움이 될 지 모르겠다. 어떻게 어떻게 하면 도움이 될 수 있겠죠? 그런데 FTP에서 SFTP로 바꾼다. 이거는 조금.. 별로 도움이 안 될 것 같아요. 

B도 마찬가지죠. CSV 파일을 바이너리 파일로 바꾸는게 전 얼마나 도움이 될 지 모르겠다. 

근데 ‘FTP를 스트리밍으로 바꾼다.’ 이건 좀 도움이 될 것 같아요. 데이터를 쫙 모아서 FTP로 올리는 게 아니라, 스트리밍으로 올리면 조금 더 빠르게 처리를 할 수 있겠다. 근데 CSV를 바이너리로 바꾸는 건 그렇게 도움이 될 것 같지 않아요. 그래서 B를 제거할 것 같구요.

D도 FTP를 SFTP로 바꾸는게 도움이 안 될 것 같다. 

그래서 정답은 C다.

역시 조금 어려운 문제였죠? 제가 봤을 때 가장 어려운 문제 중 하나였을 것 같다. 하지만 하나씩 제거해나가면, 답을 도출해낼 수 있지않을까 하는 생각이 든다.

이런 문제를 풀려면, CSV가 뭔지, 바이너리가 뭔지는 알고 계셔야 한다.

좀 더 쉬운 문제로 가보겠다.

Q6.

Your company wants to deploy several microservices to help their system handle elastic loads. Each microservice uses a different version of software libraries. You want to enable their developers to keep their development environment in sync with the various production services. Which technology should you choose?

A. RPM/DEB

B. Containers

C. Chef/Puppet

D. Virtual machines

정답은 B.

문제가 길게 써있는데.. 간단하게, 마이크로서비스 쓰고싶다고 한다!

마이크로서비스 쓰고 싶으면 컨테이너 써야지. 단순하게 생각하시면 풀 수 있으셨을 것 같다.

Q7.

Your company wants to track whether someone is present in a meeting room reserved for a scheduled meeting. There are 1000 meeting rooms across 5 offices on 3 continents. Each room is equipped with a motion sensor that reports its status every second. You want to support the data upload and collection needs of this sensor network. The receiving infrastructure needs to account for the possibility that the devices may have inconsistent connectivity. Which solution should you design?

A. Have each device create a persistent connection to a Compute Engine instance and write messages to a custom application.

B. Have devices poll for connectivity to Cloud SQL and insert the latest messages on a regular interval to a device specific table.

C. Have devices poll for connectivity to Cloud Pub/Sub and publish the latest messages on a regular interval to a shared topic for all devices.

D. Have devices create a persistent connection to an App Engine application fronted by Cloud Endpoints, which ingest messages and write them to Cloud Datastore.

(1분 후)

정답은 C.

지금까지 문제 풀었던 전략을 따라해보면..

  • 첫번째는 소거하는 방법이 있었고,
  • 두번째는 문제를 읽으면서 해당 제품을 떠올려보는 방법이 있었다.

이 문제의 경우 두번째 방법을 취하면 좋을 것 같다.

문제를 읽어보니까, 엄청나게 많은 회의실에서 데이터들이 뿜어져나오는 것 같다.

사실 이거 구글 내부에서 사용하는 시스템입니다. 회의실에서 카메라가 돌아가는데. 회의실을 예약했는데, 회의실에 사람이 안 온다. 그럼 머신러닝이 인지해가지고, 회의실 예약을 취소해버리는, 그런 시스템이 있다. 그거를 따와서 만든 문제인 것 같다.

IoT 기기들이 데이터를 뿜고, 데이터를 GCP로 쏴줍니다. 그럼 GCP가 그 데이터를 받아줘야겠죠. IoT 실시간 데이터를 받아주는 친구는 항상 Cloud Pub/Sub이다. Cloud Pub/Sub을 떠올리면, ‘내가 GCP를 잘 알고 있구나’라고 생각하시면 될 것 같다.

보기를 보면 Cloud Pub/Sub이 있는 건 C 밖에 없다. C가 말이 되는 것 같아요.

이것 역시, 코세라 Data Engineering with Google Cloud 전문 자격증 과목에서 설명이 상세하게 잘 되어있는 것 같으니 나중에 확인해보세요.

가끔.. Cloud Architect라고 해서, 아키텍트 공부만 하시는 분들이 계신데, 아까 위에서 설명 드렸지만. 데이터 파이프라인 정도? 그 정도는 알고 계셔야, Cloud Pub/Sub, BigQuery 이런 제품들도 알고 계셔야 시험 보는데 도움이 될 것 같습니다.

다음 문제 넘어가겠다.

Q8.

Your company wants to try out the cloud with low risk. They want to archive approximately 100 TB of their log data to the cloud and test the analytics features available to them there, while also retaining that data as a long-term disaster recovery backup. Which two steps should they take?

A. Load logs into BigQuery.

B. Load logs into Cloud SQL.

C. Import logs into Stackdriver.

D. Insert logs into Cloud Bigtable.

(1분 후)

정답은 A, D

문제 보면 두개 선택하라고 되어있다. 헷갈리지 않으셨으면 좋겠다.

아까랑 비슷하게, 문제를 읽으면서 제품을 떠올리셔야 한다.

이 문제 같은 경우엔, 중간에

‘cloud and test the analytics features available to them there’

여기 보니까, analytics에 대한 feature가 있었죠. 그럼 당연히 BigQuery란 제품을 떠올리면 도움이 될 거다.

‘retaining that data as a long-term disaster recovery backup’

무슨 일이 생길지 모르니 클라우드에 백업을 해두겠다 란 뜻이다. 그럼 당연히 Cloud Storage 가 좋은 대답이 되겠죠.

근데 솔직히 얘기하면 ‘Cloud SQL에 데이터를 저장하겠다’하면.. 말릴 사람이 누가 있겠습니까? 가능은 할겁니다. 그런데! 가장 정답을 뽑아야 하거든요, 시험에서는. 그래서 시험이 어려운 것 같습니다.

사실 다른것 뽑으셔도 된다. 근데 더 괜찮은 게 있으면, 더 괜찮은 것 뽑으시면 된다.

항상 오답, 정답이 있는게 아니라..

약간 정답, ‘너무나도 좋은 정답’이 있을 땐, ‘너무나도 좋은 정답’을 선택하시면 된다. 이것 때문에 많은 분들이 시험을 어려워하신다.

Q9.

You set up an autoscaling instance group to serve web traffic for an upcoming launch. After configuring the instance group as a backend service to an HTTP(S) load balancer, you notice that virtual machine (VM) instances are being terminated and relaunched every minute. The instances do not have a public IP address. You have verified that the appropriate web response is coming from each instance using the curl command. You want to ensure that the backend is configured correctly. What should you do?

A. Ensure that a firewall rule exists to allow source traffic on HTTP/HTTPS to reach the load balancer.

B. Assign a public IP to each instance, and configure a firewall rule to allow the load balancer to reach the instance public IP.

C. Ensure that a firewall rule exists to allow load balancer health checks to reach the instances in the instance group.

D. Create a tag on each instance with the name of the load balancer. Configure a firewall rule with the name of the load balancer as the source and the instance tag as the destination.

(1분 후)

정답은 C. 이와 같은 문제는 사실 어려운 문제가 아니다. 

어려운 문제는 아닌데, 문제가 길어서 저희가 어렵다라고 생각을 하게 되죠. 문제가 길면 어렵다고 착각을 하는데, 사실 문제가 길면 더 쉬운 문제라고 생각하시면 좋을 것이다. 시험장에서 너무 긴 문제를 보고 당황하지 마시고, 차근차근 읽어보시면 좋을 것 같다.

VM이 뭔가 꺼졌다가, 살아났다가, 꺼졌다가 살아났다가 하고 있다고 합니다.

로드밸런서가 있고, 그 뒤에 VM이 꺼졌다가 살아났다가 하고 있다고 한다.

그런데 웹에 response는 잘 오고 있다. 크게 문제는 없다. 근데 VM이 켜졌다가, 꺼졌다가 그런 문제가 생기는 거다.

전체적으로 종합해보면, 서비스는 잘 지급이 된다. 그런데 로드밸런서가 있고, VM이 켜졌다, 꺼졌다 하고 있다. 뭐가 문제일까?

바로 healthcheck가 문제다.

혹시 익숙하지 않으신 분들은 코세라 Architecting with Compute Engine 에 가시면, 로드밸런서와 헬스체크에 관한 문제가 있다. 거기 보시면 이것과 관련된 설명이 있다다.

로드밸런서는 트래픽을 각각의 VM에 assign 해주는 역할을 하게 되죠. 만약에 죽어있는 VM에 assign을 해주게 되면 안되잖아요. 그럼 클라이언트가 서비스를 못 받게 되겠죠.

그래서 항상 로드밸런서는 VM이 살아있는지, 죽어있는지 확인하는 작업을 한다. “야, 너 살아있어?”하고 계속 물어봅니다. 그래서 acknowledge가 오게 되면 해당 트래픽을 연결시킨다. 그 작업을 반복하게 된다. 그걸 헬스체크라고 한다.

근데 만약, 헬스체크를 하는데, Reoponse가 안 와요.. 그러면 ‘어, 얘 죽어있구나!’하고 판단을 하고 새롭게 VM을 올려주게 되겠죠. Autohealing이라고 하게 되는데요

보기를 보시면 헬스체크와 관련된 것을 고르시면 되겠죠. 보니까 C번만 있는 것 같다.

그러면 왜 헬스체크가 잘 안됐나? 를 봤을 때, 아마 방화벽 설정이 가장 큰 문제가 되지 않을까 하는 생각이 든다. ‘방화벽 설정’을 한번 확인해보면 좋을 것 같다.

특히 로드밸런서와 백엔드를 연결시켜 줄 때는, 항상 방화벽 확인해주는 걸 잊지마세요.

이 내용이 생소하신 분들은 Architecting with Compute Engine 9단원이나 10단원 쯤에 있는 걸로 알고 있다.

오늘의 마지막 문제를 풀어보겠다.

Q10.

Your organization has a 3-tier web application deployed in the same network on Google Cloud Platform. Each tier (web, API, and database) scales independently of the others. Network traffic should flow through the web to the API tier, and then on to the database tier. Traffic should not flow between the web and the database tier. How should you configure the network?

A. Add each tier to a different subnetwork.

B. Set up software-based firewalls on individual VMs.

C. Add tags to each tier and set up routes to allow the desired traffic flow.

D. Add tags to each tier and set up firewall rules to allow the desired traffic flow.

(1분 후)

정답은 D. 많이 맞추셨을 것 같다.

“Your organization has a 3-tier web application deployed in the same network on Google Cloud Platform.”

GCP 내의 같은 네트워크 안에 deploy가 되어있대요. 같은 VPC 안에 있는 것 같다. 그럼 internal 통신이 가능하겠다.

“Each tier (web, API, and database) scales independently of the others. ”

3개의 tier가 있는데, 걔네가 서로 scale out, scale down을 독립적으로 한다는 얘기다.

“Network traffic should flow through the web to the API tier, and then on to the database tier.”

web에서 db로 이렇게 흘러가야 한다. 

“Traffic should not flow between the web and the database tier. ”

중간에 당연히 API를 거쳐서 가야하고요. 바로는 안 된다. 이런 이야기를 하고 있다.

“How should you configure the network?”

많이 경험 있으신 분들은 아시겠지만, 이런 경우는 방화벽 설정으로 traffic을 조절하는게, 가장 적절한 방법이 되겠다. 방화벽 설정이 아니라면, 같은 네트워크 안에 있으니까 서로 의사소통이 가능할텐데, 방화벽 설정을 통해, 그런 흐름을 차단하거나 허용할 수 있으니까. 그래서 방화벽과 관련된 이야기를 찾으시면 될 것 같다.

그럼 A는 당연히 말이 안되고. C도 방화벽 이야기가 없다. 그럼 B와 D가 될 것 같다.

그리고 저희 GCP에서 방화벽을 사용하실 때는, 방화벽을 태그를 통해 설정할 수 있다. 그래서 정답은 D가 되겠다.

B의 software-based…도 말이 되긴한데 individual VM이 말이 안된다. 너무 수고스럽죠. Tier 단위로 방화벽을 설정할 수 있으니까. 뭐 B도 무리해서 억지로 억지로 하면 될 수 있을 것 같은데, D가 훨씬 더 정답이기 때문에 D가 맞지않나 개인적으로 생각해본다.

이렇게 한시간 가까이 문제를 정리해보았다.

좀 어렵게 느껴지시는 분들도 계실거고, 아니면 쉽다고 생각하는 분들도 계실텐데. 어느쪽이든 지금부터 시험 날짜까지 차분히 문서를 보시고 공부를 하시면 좋을 것 같다.

마무리를 위해서 나머지 문제는 넘어가겠다. 참고로 이 문제들은 다 저희 홈페이지에 있다. 홈페이지를 통해 문제를 사용하실 수 있다.

여기 제 이메일 주소와 링크드인 정보가 있으니까, 추가적으로 궁금하신 점이 있는 분들은 여기로  이메일을 주시면 좋을 것 같다. 혹시 채팅창에 질문이 있으면, 질문 한두개 받고 오늘 마무리 하도록 하겠습니다.

#Q&A

Q.상식이 부족해서 슬픕니다.

A.사실 이게 어려운 부분이죠. 그래서 저희가 조건 중에서는 ‘3년 이상 IT를 하신 분들이 이 시험에 응시하셨으면 좋겠다’고 이야기를 해놓았는데요. 실제로 저도 가장 힘든 부분 중에 하나입니다.

사실 저는 원래 엄청난 컴맹이거든요. 예전에 컴퓨터과학과 들어갔다가, 대학교 1학년 때 C언어 stdio를 보고 저는 바로 학교를 자퇴했습니다. ‘컴퓨터는 내 길이 아니구나!’ 지금까지도 저는 컴맹이라는 소리를, 저의 가족들에게 듣고 있고요. 모바일 어플리케이션을 삭제하는 법을 잘 몰라가지고, 항상 저희 어머니께 물어봅니다. 저도 굉장히 기본 상식이 부족해서, 사실 저는 시험을 보러갔다가 처음에 시험에 떨어졌습니다.(웃음)생각보다 어렵더라구요. 

그래서 오늘 이 내용을 보고 어렵다고 느끼시는 분들은, 지금 바로 시험 보러가시면 안됩니다.(웃음) 꼭 저희 Coursera에 있는 강의 들으시구요. 문서 쭉 확인하시고, 그 다음에 시험장에 들어가시면 좋을 것 같구요. 

그냥 기본 상식이 없었던 저의 경험을 나누었습니다. 적어도 저는 워킹데이 기준으로 한 5일에서 6일 정도는 다시 공부를 했던 것 같습니다. 그렇게 해주시면 좋을 것 같고요.

Q.시험이 취소되었어요.

A.지금.. 시험이 취소되었다는 이야기가 있는데, 아마 코로나 때문에 취소된건지 어떤건지 저도 정확하게 파악이 어렵습니다. 저희가 직접 운영하는 게 아니라, 파트너사를 통해서 운영하고 있기 때문에.. 그쪽으로 이메일 주시면은 아마 답변을 받으실 수 있을 것 같습니다.

Q.소프트웨어 개발자인데, GCP 자격증이 개발자한테도 유용할 지 견해가 궁금합니다.

A.이 시험 자체는 Architect한테 맞춰진 시험입니다. 그래서 GCP에서 클라우드를 사용할 때는 

하나만 쓰는게 아니라, 여러개를 사용하는 거거든요? 그거를 어떻게 구성해서 아키텍처를 만들지에 대한 그러한 자격증 내용이구요. 혹시나 개발을 하시는 분이시라면, 저희 자격증 중에서 ‘Professional Cloud Developer’라는 자격증이 있습니다. 개발자라면, 해당 자격증을 한번 시도해 보시면 좋을 것 같구요. PCD는 기본적으로 클라우드 환경 내에서, 어떻게 개발할 지에 대한 내용을 담고 있으니까 확인해보시면 좋을 것 같고. 코세라에도 관련된 강의가 있으니까, 꼭 한번 들어보시면 좋을 것 같습니다. 

Q.현재 수준의 문제를 풀 때, 정답률이 어느 정도 되면 시험 보러 가면 될까요?

A. 제가 답변 드리기는 어려운 것 같습니다.(웃음) 쭉 보시고 충분히 자신감이 생기시면, 시험을 보러가시면 좋을 것 같고요. 개인적으로 저같은 경우는 한번 떨어졌구요. 두번째는 6일동안 하루종일 공부했습니다. 이렇게 생각하시면, 조금 답이 될지 어떨지 모르겠습니다.

Q.시험문제는 정말 케이스 스터디 3개에서만 나오나요?

A.네! 케이스 스터디와 관련된 내용은 이 케이스 3개에서만 나오고요. 여기에다가 추가로, 케이스 스터디와 관련 없는, 그런 문제들도 등장을 하게 됩니다. 그래서 케이스 스터디와 관련된 문제, 케이스 스터디와 상관 없는 문제. 케이스 스터디와 관련된 문제는 아까 말씀 드린 3개의 케이스 스터디에서만 출제가 됩니다.

#마무리

그럼 답변 다 드린 것 같습니다. 긴 시간 동안 함께 해주셔서 너무나도 감사하구요. 지금부터 (스터디 잼 종료까지)시간이 한 몇주 더 계신 걸로 알고있는데, 남은 기간동안 열심히 공부하셔가지고, 좋은 결과 있으셨으면 좋겠고요. 혹시 하다가 궁금한 사항 있으시면 저에게 이메일 주시고, 혹시나 자격증을 딴 경우에도, 저에게 연락을 주시면, 제가 굉장히 기쁘지 않을까(웃음)생각이 듭니다. 긴 시간 함께 해주셔서 감사하고요. 바이러스 조심하시고. 오늘도 남은 하루 잘 보내시길 바라겠습니다. 

대단히 감사합니다.