Optimization Engineer
마감기한
2025년 07월 31일
부문
R&D
직군
Core
직무
Optimization Engineer
경력사항
경력 무관
고용형태
정규직
근무지
강남서울특별시 강남구 강남대로 318, 13층, 14층

Mission of ​the ​Role

디노티시아 ​최적화팀은 LLM ​모델을 빠르고 효율적으로 추론할 ​수 ​있는 기술을 ​연구하고 개발합니다.

이를 ​위해 모델을 ​경량화하고 ​압축하여, 주어진 ​하드웨어에서 ​최적의 ​성능을 발휘할 수 ​있도록 ​자체 추론 엔진을 ​개발합니다. ​이러한 ​기술은 회사의 전략 ​제품인 Mnemos(니모스)와 ​Seahorse(씨홀스)의 ​경쟁력을 높이는 ​데 핵심적인 ​역할을 ​합니다.



Roles and Responsibilities

  • LLM ​(Large Language ​Model) Inference 엔진의 설계 및 개발
  • Open Source 기반 Inference 프레임워크(e.g., vLLM)의 구조 분석 및 필요시 커스터마이징
  • LLM 워크로드에 대한 정량적 분석 및 병목 지점 프로파일링
  • Quantization 및 Pruning 기법을 활용한 추론 경량화 및 최적화 설계 및 구현
  • 최신 논문 및 공개된 구현체 기반 최적화 기법 지속적 습득 및 적용
  • 시스템/하드웨어 특성에 맞춘 추론 경로 최적화 (e.g., CPU-GPU 간 데이터 이동 최소화, 메모리 계층 활용 등)


Basic Qualifications

  • C++ 또는 Python 기반 개발 능력
  • Transformer 구조 및 LLM 아키텍처에 대한 기초적인 이해
  • Quantization 또는 Pruning 기법에 대한 이론 및 실습 경험
  • Git, Linux 환경 기반 개발 및 디버깅 경험



Preferred Qualifications

  • vLLM 또는 유사한 LLM Inference Engine 내부 구조에 대한 깊은 이해 및 수정 경험
  • CUDA 및 GPU 최적화 커널 개발 경험
  • GPU 아키텍처 및 메모리 계층 구조에 대한 실질적인 이해 (e.g., HBM, L2 cache, shared memory 등)
  • TorchScript, TorchDispatch, TorchDynamo 등 PyTorch 시스템 레이어 경험
  • 다음 분야에 대한 이해 및 실무 활용 능력 :

- Computer Architecture (CPU/GPU 파이프라인, 메모리 계층 구조 등)

- Heterogeneous Computing (CPU-GPU 협업 및 오프로드 전략 등)

- Operating System 기초 (메모리 관리, 스케줄링, IO path 등)

  • LLM 추론 관련 최신 논문 및 구현체를 빠르게 분석하고 적용하는 능력



Benefits and Perks

  • 유연한 근무 시간
  • 중식 지원 및 간식바 상시 운영
  • 생일 선물 제공
  • 경조비 및 경조휴가 제공
  • 아늑한 마사지 의자 운영
  • 모션데스크 지원 및 개인맞춤 업무장비 Credit 제도 운영
  • 수면 캡슐
  • 연간 무료 건강검진
  • 업무 관련 도서 구매 지원



Recruitment Process

서류전형 – 실무면접 – 임원면접 – 처우협의 및 평판조회 – 최종 합격

* 전형 절차는 직무별로 다르게 운영될 수 있으며, 일정 및 상황에 따라 변동될 수 있습니다.


디노티시아는 한 사람 한 사람의 다양성을 존중하며 글로벌 Tech회사의 문화를 만들어가고 있습니다.

또한, 채용전형에서 나이, 국적, 성별, 출신 등 업무역량과 관계없는 요소로 차별하지 않으며, 지원자 모두에게 공정한 기회를 제공합니다.


AI 알고리즘, 컴퓨팅 가속, 데이터 관리 및 서비스 시스템 영역 등에서 다양한 업계 최고의 인재들이 함께하고 있는

디노티시아에 많은 관심 부탁드리며, 채용전형과 관련하여 궁금하신 점은 언제든지 디노티시아 인사팀에 문의 주시기 바랍니다.


[디노티시아 인사팀 문의메일: [email protected]]

공유하기
Optimization Engineer

Mission of ​the ​Role

디노티시아 ​최적화팀은 LLM ​모델을 빠르고 효율적으로 추론할 ​수 ​있는 기술을 ​연구하고 개발합니다.

이를 ​위해 모델을 ​경량화하고 ​압축하여, 주어진 ​하드웨어에서 ​최적의 ​성능을 발휘할 수 ​있도록 ​자체 추론 엔진을 ​개발합니다. ​이러한 ​기술은 회사의 전략 ​제품인 Mnemos(니모스)와 ​Seahorse(씨홀스)의 ​경쟁력을 높이는 ​데 핵심적인 ​역할을 ​합니다.



Roles and Responsibilities

  • LLM ​(Large Language ​Model) Inference 엔진의 설계 및 개발
  • Open Source 기반 Inference 프레임워크(e.g., vLLM)의 구조 분석 및 필요시 커스터마이징
  • LLM 워크로드에 대한 정량적 분석 및 병목 지점 프로파일링
  • Quantization 및 Pruning 기법을 활용한 추론 경량화 및 최적화 설계 및 구현
  • 최신 논문 및 공개된 구현체 기반 최적화 기법 지속적 습득 및 적용
  • 시스템/하드웨어 특성에 맞춘 추론 경로 최적화 (e.g., CPU-GPU 간 데이터 이동 최소화, 메모리 계층 활용 등)


Basic Qualifications

  • C++ 또는 Python 기반 개발 능력
  • Transformer 구조 및 LLM 아키텍처에 대한 기초적인 이해
  • Quantization 또는 Pruning 기법에 대한 이론 및 실습 경험
  • Git, Linux 환경 기반 개발 및 디버깅 경험



Preferred Qualifications

  • vLLM 또는 유사한 LLM Inference Engine 내부 구조에 대한 깊은 이해 및 수정 경험
  • CUDA 및 GPU 최적화 커널 개발 경험
  • GPU 아키텍처 및 메모리 계층 구조에 대한 실질적인 이해 (e.g., HBM, L2 cache, shared memory 등)
  • TorchScript, TorchDispatch, TorchDynamo 등 PyTorch 시스템 레이어 경험
  • 다음 분야에 대한 이해 및 실무 활용 능력 :

- Computer Architecture (CPU/GPU 파이프라인, 메모리 계층 구조 등)

- Heterogeneous Computing (CPU-GPU 협업 및 오프로드 전략 등)

- Operating System 기초 (메모리 관리, 스케줄링, IO path 등)

  • LLM 추론 관련 최신 논문 및 구현체를 빠르게 분석하고 적용하는 능력



Benefits and Perks

  • 유연한 근무 시간
  • 중식 지원 및 간식바 상시 운영
  • 생일 선물 제공
  • 경조비 및 경조휴가 제공
  • 아늑한 마사지 의자 운영
  • 모션데스크 지원 및 개인맞춤 업무장비 Credit 제도 운영
  • 수면 캡슐
  • 연간 무료 건강검진
  • 업무 관련 도서 구매 지원



Recruitment Process

서류전형 – 실무면접 – 임원면접 – 처우협의 및 평판조회 – 최종 합격

* 전형 절차는 직무별로 다르게 운영될 수 있으며, 일정 및 상황에 따라 변동될 수 있습니다.


디노티시아는 한 사람 한 사람의 다양성을 존중하며 글로벌 Tech회사의 문화를 만들어가고 있습니다.

또한, 채용전형에서 나이, 국적, 성별, 출신 등 업무역량과 관계없는 요소로 차별하지 않으며, 지원자 모두에게 공정한 기회를 제공합니다.


AI 알고리즘, 컴퓨팅 가속, 데이터 관리 및 서비스 시스템 영역 등에서 다양한 업계 최고의 인재들이 함께하고 있는

디노티시아에 많은 관심 부탁드리며, 채용전형과 관련하여 궁금하신 점은 언제든지 디노티시아 인사팀에 문의 주시기 바랍니다.


[디노티시아 인사팀 문의메일: [email protected]]