Mô tả công việc
- Các nhiệm vụ chính:
- Thiết kế và xây dựng các ứng dụng trên nền tảng Big Data với kiến trúc tối ưu bài toán đặt ra.
- Lập trình thao tác với nhiều hệ cơ sở dữ liệu khác nhau như Spark, Hadoop, Cassandra, Hbase, Oracle, MongoDB, Mysql, Singlestore
- Làm việc và triển khai các hạ tầng dữ liệu như Apache iceberg, Airflow, MinIO, Trino, Starrock
- Lập trình các thuật toán thao tác với dữ liệu, phân tích dữ liệu.
- Có khả năng đánh giá, xây dựng giải pháp, cài đặt và triển khai các phần mềm nền tảng theo kiến trúc
- Các nhiệm vụ khác:
- Các nhiệm vụ khác theo chỉ đạo của Ban Lãnh đạo và Trưởng Bộ phận.
Yêu cầu công việc
- Yêu cầu về bằng cấp/ chuyên ngành:
Tốt nghiệp Đại học trở lên chuyên ngành Công nghệ thông tin hoặc tương đương; Tốt nghiệp Đại học trở lên các ngành: Công nghệ kỹ thuật điện tử - viễn thông, Công nghệ kỹ thuật điều khiển và tự động hóa; Kỹ thuật điện tử - viễn thông, Điện tử - viễn thông có chứng chỉ quốc tế về CNTT phù hợp chuyên môn vị trí tuyển dụng.
- Yêu cầu về kỹ năng:
- Kỹ năng tổng quát, thiết kế kiến trúc và xây dựng hệ thống.
- Có tư duy logic tốt, nắm bắt vấn đề nhanh, khả năng phân tích.
- Thành thạo lập trình hướng đối tượng, hiểu biết sâu về nền tảng và kỹ năng lập trình song song, phân tán.
- Thành thạo ít nhất một trong các ngôn ngữ Java, C#, C/C++, Python.
- Thành thạo truy vấn cơ sở dữ liệu, và thành thạo ít nhất một trong các database Oracle, MS SQL, MySQL, MongoDB, Hadoop, Hbase, Cassandra, Spark, IceBerg
- Kỹ năng phân tích, đánh giá và quản lý rủi ro, xử lý nhanh.
- Kỹ năng giao tiếp, phối hợp công việc tốt, năng động, chăm chỉ, làm việc dưới áp lực cao.
- Kỹ năng đào tạo, trình bày và truyền đạt.
- Yêu cầu về kinh nghiệm:
Có tối thiểu 06 tháng kinh nghiệm trong ngành Công nghệ thông tin.
- Yêu cầu đặc biệt về chuyên môn/nghiệp vụ:
- Hiểu bản chất xử lý dữ liệu phân tán (DAG, shuffle, partition).
- Hiểu rõ các mô hình lưu trữ dữ liệu: Data Warehouse, Data Lake; có kinh nghiệm làm việc với nhiều hệ quản trị cơ sở dữ liệu (Oracle, MySQL, MongoDB, Cassandra…)
- Có kinh nghiệm làm việc với các công cụ điều phối (Airflow, Nifi…) và hệ thống message queue (Kafka…)
- Có khả năng debug, phân tích log và tối ưu hệ thống dữ liệu.
- Nắm vững các nguyên tắc bảo mật, quản lý rủi ro và tuân thủ.
- Các yêu cầu đặc biệt khác:
Có tinh thần trách nhiệm cao, chủ động trong công việc, khả năng làm việc độc lập và theo nhóm.
Trình độ ngoại ngữ: Đọc hiểu tài liệu chuyên ngành tiếng Anh.
- Ưu tiên đối với ứng viên có:
- Kinh nghiệm làm việc tại các doanh nghiệp lớn, viễn thông hoặc tài chính.
- Kinh nghiệm làm việc, xây dựng, vận hành hệ thống dữ liệu lớn (Big Data), Data Warehouse/Data Lake.
- Kinh nghiệm triển khai pipeline dữ liệu (ETL/ELT), xử lý dữ liệu batch/streaming.
- Bằng cấp chứng chỉ:
Ưu tiên có các chứng chỉ về dữ liệu/Big Data/Cloud như:
+ AWS Certified Data Analytics / AWS Certified Solutions Architect
+ Google Professional Data Engineer
+ Microsoft Azure Data Engineer Associate
+ Cloudera Certified Associate (CCA) Data Analyst/Engineer
+ Databricks Certified Data Engineer hoặc tương đương.
Phúc lợi