AI 인프라 연구원(SW+HW)
텐채용 공고를 놓치지 않으려면 →주요 채용 공고를 놓치지 않으려면 →
<h2>주요업무</h2><p>[공통]<br>- AI 및 AI 인프라 관련 다양한 기술 리서치 및 제품화<br>- 딥러닝 기술 트렌드에 맞는 인프라 기술 조사 및 적용<br>- MLOps 플랫폼 리서치 및 기술 반영<br> <br>[AI For Infrastructure]<br>- AI 인프라 운영을 위한 LLM 서비스 개발<br>- 효율적인 워크로드 스케줄링 알고리즘 개발<br>- AI 서비스의 SLO(Service Level Objective)의 달성을 위한 인프라 구성 추천 모델 개발<br> <br>[Infrastructure for AI]<br>- 자사 Kubernetes 기반 GPUaaS 플랫폼의 MLOps 기능 기획 및 구축<br>- GPU 효율성을 높이기 위한 시스템 소프트웨어 개발<br>- AI 워크로드의 성능 모니터링 및 프로파일링 서비스 개발<br> <br>**RA:X (Reference Architecture of TEN) Team**<br>RAX 팀은 고객의 AI 개발 및 운영 목적에 알맞게 ‘AI 인프라의 구축(HW)’과 ‘효율적인 운영 도구(SW)’를 함께 지원함으로써, 기업의 ‘AI 전환(AI Transformation)’을 가속화하는 역할을 담당합니다.<br> <br>이를 위해 RAX 팀은 두 가지 방향의 연구를 동시에 수행합니다.<br>- AI for Infrastructure: AI 인프라를 효율적으로 사용하기 위한 AI 기술을 개발<br>- Infrastructure for AI: AI 개발과 운영을 위한 AI 인프라 기술과 소프트웨어를 개발<br> <br>RA:X의 목표는 이 두 영역 간의 선순환 구조를 만들어 지속적인 최적화가 가능한 AI 인프라를 구축하는 것입니다.<br> <br>**특히, TEN은 RAX팀의 연구를 뒷받침하기 위한 AI RA(Reference Architecture) 인프라를 보유하고 있습니다.**<br>- GPU 서버: DGX-H100, DGX-A100 를 비롯한 다양한 티어의 GPU 서버<br>- 네트워크 장비: Infiniband(400G, 200G, 100G), Ethernet(400G, 100G)<br>- 스토리지: 다양한 벤더의 네트워크/분산 파일 시스템 스토리지<br>중요한 것은 AI RA가 인공지능 인프라 기술 R&D를 하기 위한 전용 장비라는 것입니다. 특히 하드웨어 벤더들이 신제품이 나오면 RAX팀에 성능 테스트를 의뢰할 만큼 국내에서는 유명한 인프라이며, 이를 바탕으로 최신 트렌드 연구가 활발히 이루어지고 있습니다.</p><h2>자격요건</h2><p>[공통]<br>- **AI 및 AI 인프라 관련 경력 3년 이상 (혹은 관련 석박사 학위자의 경우 신입 가능)**<br>- **[AI For Infrastructure]나 [Infrastructure for AI] 영역 중 하나 이상의 자격 요건을 보유한 분**<br>- AI 및 인프라 관련 기술 문제를 정의하고 해결한 경험이 있는 분<br>- Kubernetes, Docker, 리눅스 서버에 대한 이해와 시스템 운영 능력<br>- AI를 활용해 생산성을 높이고 새로운 문제 해결에 도전할 수 있는 분<br> <br>[AI For Infrastructure]<br>- 분산 시스템 및 클라우드 환경 개선 및 지원을 위해 AI을 활용한 경험이 있는 사람<br>- AI 인프라에서 생성되는 메트릭을 수집 및 분석하여 병목 원인을 분석할 수 있는 분<br> <br>[Infrastructure for AI]<br>- Kubernetes의 오픈소스 MLOps 생태계를 활용한 프로젝트 경험이 있는 사람<br>- 머신러닝 개발자의 관점에서 MLOps 지원 요소를 분석 및 정의하고 이를 개발할 수 있는 사람</p><h2>우대사항</h2><p>- 클러스터 및 클라우드 환경 개선/지원하는 AI 연구 및 개발 경험<br>- MLOps 플랫폼(예: Kubeflow, MLflow, Seldon, Airflow 등) 구축 또는 운영하여 효율성을 향상시킨 경험<br>- Kubernetes 및 클라우드 네이티브 오픈소스 기여 경험<br>- 초거대 규모 모델 학습 추론 서비스 배포 및 운영 경험<br>- GPU 최적화 관련 연구 수행자 혹은 석박사 학위 소지자</p><h2>채용절차</h2><p>서류전형 > 직무 인터뷰 > 대표님과 식사 > 최종합격</p>