본 <사용해봐요 Dataprep> 포스팅은 시리즈로 이루어져 있습니다.
참고 부탁드립니다 🙂
본 내용은 [사용해봐요 Dataprep] 3편 – Dataprep Join 기능 포스팅에서 이어지는 내용입니다. 참고 부탁드립니다 🙂
[사용해봐요 Dataprep] 4편 – Dataprep Export 기능 목차
- Export to BigQuery
- Export to Local
- 참고
Export to BigQuery
이번엔 merge한 이 information-200524-2Recipe를 BigQuery에도 export해보도록 하겠습니다.
우측 상단의 Run Job 버튼과, Add Publishing Action버튼을 순서대로 클릭합니다.
다음은 Add Publishing Action 버튼을 클릭했을 때 보이는 화면입니다.
좌측에서 [BigQuery]탭을 클릭한 후, 나타나는 Datasets를 클릭합니다.
위 이미지에서는 data_from_dataprep 입니다.

(설명 : 위 data_from_dataprep은 제가 사전에 만들어둔 BigQuery의 데이터세트입니다. 데이터세트가 없는 분들은, 브라우저 탭을 하나 더 열고, BigQuery에서 데이터세트를 생성하고 다시 Dataprep 탭으로 돌아오시면 됩니다.)
Create a new table 을 클릭한 후, table 이름을 입력하고 [Add]를 클릭합니다.

Location이 추가된 것을 확인할 수 있습니다.
[Run Job] 을 클릭합니다.

두 Recipe가 합쳐진 것을 시각적으로 확인할 수 있습니다.
BigQuery로 이동해봅시다.

Dataprep에서 export한 데이터가 무사히 도착한 것을 확인할 수 있습니다.

Export to Local
쿼리 편집기에서 아래 쿼리문을 작성한 후, 실행 버튼을 클릭합니다.
SELECT * FROM {데이터세트 이름}.{테이블 이름};
본 포스팅 기준으로 쿼리문은 아래와 같습니다.
SELECT * FROM data_from_dataprep.birthday_information;

쿼리가 오류 없이 실행되었습니다.
[결과 저장]을 클릭합니다.
[CSV(로컬 파일)] 을 선택하고 [저장]을 클릭합니다.

다운 받은 csv파일이 로컬에서 깨지지 않은 형태로 깨끗하게 열리는 것을 확인할 수 있습니다.

지금까지 긴 포스팅 읽어주셔서 감사합니다 🥰
참고
공식
퀵랩
- Dataprep: Qwik Start
- Working with Google Cloud Dataprep
- Creating a Data Transformation Pipeline with Cloud Dataprep
- Streaming IoT Core Data to Dataprep
유튜브
- Dataprep: Qwik Start 에 대한 소개 영상
- Creating ETL Jobs with DataPrep – Take5
- Easily prepare data for analysis with Google Cloud (Google Cloud Next ’17)
블로그
다음 포스팅 [사용해봐요 Dataprep] 5편 – 후기 에서 뵙겠습니다.