본문 바로가기

빅데이터

(30)
빅데이터 분석 기사 실기 시험 정보 정리 및 꿀팁 #1 기출 유형 정리작업형 제1유형 : 데이터 전처리 작업전처리 문제 : 데이터 분석, 변환 등... 작업을 하게 됩니다. 주로 사용하는 패키지: numpy, pandas작업형 제2유형 : 데이터 모형 구축 작업모형 구축 문제 (머신러닝) : 주어진 데이터를 전처리 하고 모델을 학습하여, 예측하는 문제입니다. 주로 사용하는 패키지: sklearn제3유형 : 데이터 모형 평가 작업통계분석 문제 : 통계 정보를 도출하는 문제 입니다. 주로 사용하는 패키지: scipy.stats, statsmodels 채점 기준작업 유형문항 수 점수1유형3문항문항당 10점 30점2유형1문항40점3유형2문항문항당 15점(소문항 구성) 30점합계6문항100점합격선 : 60점 1,2유형에서 높은 점수를 받는 전략을 추천 드립니다. 패키..
ETL vs ELT - 데이터 처리 접근 방식 차이점 알아보기 ETL과 ELT의 차이점은 무엇인가요?ETL(Extract, Transform, Load)과 ELT(Extract, Load, Transform)는 데이터 통합과 변환을 위한 두 가지 주요 접근 방식입니다. 이들은 데이터 처리를 위한 기본 원칙은 동일하지만, 데이터 변환 단계가 어디에서 수행되는지에 따라 차이가 있습니다.ETL (Extract, Transform, Load)ETL은 데이터를 추출(Extract)하고, 데이터 웨어하우스나 데이터 마트로 로드하기 전에 변환(Transform) 단계를 수행한 후 적재(Load)하는 방식입니다.Extract (추출):다양한 소스 시스템(예: 데이터베이스, 파일, API)에서 원시 데이터를 추출합니다.Transform (변환):데이터를 중앙 저장소로 로드하기 전에..
[dbt] dbt란 무엇인가? dbt(Data Build Tool)는 데이터 트랜스포메이션을 관리하고 자동화하는 오픈 소스 툴입니다. dbt는 데이터 팀이 SQL로 데이터를 변환, 모델링, 테스트 및 문서화할 수 있도록 도와줍니다. 주로 ELT(Extract, Load, Transform) 방식에서 트랜스포메이션(T) 부분을 담당합니다.dbt의 주요 특징SQL 중심의 트랜스포메이션:dbt는 SQL을 사용하여 데이터 트랜스포메이션을 수행합니다. 이는 SQL을 이미 알고 있는 데이터 분석가와 엔지니어에게 매우 친숙한 환경을 제공합니다.버전 관리 및 협업:dbt프로젝트는 Git과 같은 버전 관리 시스템과 통합되어 코드 변경 사항을 추적하고 여러 팀원이 협업할 수 있습니다.테스트 및 검증:dbt는 데이터 품질을 유지하기 위한 테스트 기능을 ..
[Airflow] Airflow란 무엇인가? Apache Airflow는 워크플로우 관리 플랫폼으로, 데이터 엔지니어링 작업에서 자주 사용됩니다. Airflow는 워크플로우를 작성, 스케줄링, 모니터링할 수 있는 기능을 제공하여, 복잡한 데이터 파이프라인을 효율적으로 관리할 수 있도록 돕습니다. 주요 특징DAG (Directed Acyclic Graph):Airflow의 워크플로우는 DAG로 정의됩니다. DAG는 작업(Task)들 간의 의존성을 명확히 나타내는 유향 비순환 그래프입니다. 이를 통해 작업의 실행 순서를 제어하고 모니터링할 수 있습니다.모듈화 및 확장성:Airflow는 Python 코드로 작성되어 매우 유연하고 확장 가능합니다. 사용자는 다양한 연산자(Operators)와 센서(Sensors)를 활용해 복잡한 워크플로우를 정의할 수 있..
[Flink] Apache Flink란 무엇인가? Apache Flink란 무엇인가?Apache Flink는 대규모 데이터 스트림 처리와 배치 처리 작업을 수행할 수 있는 오픈 소스 분산 데이터 처리 엔진입니다. 특히 실시간 데이터 스트림 처리에 강점을 가지고 있으며, 이벤트 기반 데이터 파이프라인과 분석 애플리케이션을 위한 강력한 도구로 널리 사용됩니다.스트림 프로세싱의 개념스트림 프로세싱(Stream Processing)은 실시간으로 연속적으로 들어오는 데이터를 처리하는 방식입니다. 이는 데이터를 저장한 후 나중에 처리하는 배치 프로세싱(Batch Processing)과는 다릅니다. 스트림 프로세싱은 데이터가 생성됨과 동시에 처리되므로, 지연 시간이 매우 낮고 실시간 분석 및 대응이 필요할 때 매우 유용합니다. 데이터 스트림(Data Stream):..
[Spark] Apache Spark란 무엇인가? Apache Spark란 무엇인가?Apache Spark는 대규모 데이터 처리를 위해 설계된 오픈 소스 분산 데이터 처리 프레임워크입니다. 주로 빅데이터 처리를 위한 빠르고 일반적인 엔진으로 사용됩니다. Spark는 Hadoop MapReduce와 같은 분산 컴퓨팅 시스템의 대안으로 개발되었으며, 대규모 데이터를 효율적으로 처리하기 위해 인메모리(메모리 내) 컴퓨팅을 활용합니다.주요 특징속도: Spark는 인메모리 컴퓨팅을 통해 디스크 기반 처리보다 최대 100배 더 빠른 성능을 제공합니다. 이는 데이터를 메모리에 유지하여 반복 작업에서 성능 저하를 방지합니다.확장성: Spark는 클러스터의 수천 대의 노드에서 작업을 실행할 수 있어 대규모 데이터 세트를 처리하는 데 매우 효율적입니다.다양한 언어 지원:..
[데이터 거버넌스] 데이터 거버넌스란 무엇인가? 데이터 거버넌스란 무엇인가?데이터 거버넌스(Data Governance)는 조직 내 데이터의 품질, 보안, 사용, 관리 정책을 수립하고 운영하는 체계를 의미합니다. 데이터는 오늘날 기업의 가장 중요한 자산 중 하나로 자리 잡고 있으며, 이를 효과적으로 관리하고 보호하기 위해 데이터 거버넌스가 필수적입니다. 이 글에서는 데이터 거버넌스의 중요성, 주요 구성 요소, 그리고 이를 구현하는 방법에 대해 알아보겠습니다.데이터 거버넌스의 중요성데이터 품질 향상: 데이터 거버넌스는 데이터의 정확성, 완전성, 일관성을 보장하여 신뢰할 수 있는 데이터를 제공합니다. 이는 비즈니스 의사결정의 정확성을 높이고 경쟁력을 강화하는 데 중요한 역할을 합니다.데이터 보안 강화: 데이터 거버넌스를 통해 데이터 접근 권한을 관리하고 ..
[객체 스토리지] Object Storage(객체 스토리지)란 무엇인가? 객체 스토리지는 대규모 데이터를 저장하고 관리하기 위한 스토리지 아키텍처입니다. 이 스토리지 방식은 데이터를 개별 객체 단위로 저장하며, 각각의 객체는 고유한 식별자와 메타데이터를 포함합니다. 주요 특징유연한 데이터 관리: 객체 스토리지는 파일과 메타데이터를 함께 저장하여, 데이터를 관리하는 데 필요한 부가 정보를 쉽게 사용할 수 있습니다. 각 객체는 고유한 식별자(예: URL)를 가지므로 접근이 용이합니다.확장성: 객체 스토리지는 대규모 데이터 저장에 적합하며, 수 페타바이트 이상의 데이터를 효율적으로 관리할 수 있습니다. 용량을 확장하는 것이 용이하여 클라우드 서비스와 잘 어울립니다.내구성 및 가용성: 클라우드 서비스 제공자들은 데이터의 중복 저장과 분산을 통해 높은 내구성과 가용성을 보장합니다. 이..