<h2>직무</h2><p>AI 인프라 연구원(SW+HW)</p><h2>포지션 상세</h2><p>주식회사 텐(TEN)은 ‘세상을 널리 AI롭게 하자’는 미션 아래, AI 기술을 통해 더 많은 기업과 개인이 가치를 생산하고 공유할 수 있는 서비스를 만들고 있는 기술 스타트업입니다.<br><br>AI 산업은 이제 단순한 기술적 가능성을 넘어서, 투자 대비 수익(ROI)이 본격적으로 논의되는 단계에 접어들고 있습니다. 그러나 AI 인프라의 대부분을 차지하는 GPU 서버 클러스터 구축 비용과, 이를 운영하기 위한 데이터센터 수준의 전력 및 관리 비용까지 고려하면, 많은 기업들이 투명하게 비용을 계획하고 관리하기 어려운 현실에 직면해 있습니다.<br><br>특히 최근 DeepSeek의 등장으로, 생성형 AI의 미래는 단순한 계산력 확장이 아닌 혁신적이고 비용 효율적인 접근 방식으로 전환되고 있으며, 이에 따라 AI 인프라 최적화 기술이 AI 경쟁력의 핵심 요소로 주목받고 있습니다.<br><br>TEN은 이러한 시장의 변화에 발맞춰, GPU 리소스 통합 및 분할 가상화 기술과 Kubernetes 기반의 오케스트레이션을 결합한 AI 인프라 도구 ‘AI Pub’, 그리고 고객 맞춤형 클러스터를 설계 및 구성해주는 컨설팅 서비스 ‘RA:X’를 제공하고 있습니다.<br><br>더 나아가 TEN은 현행 데이터센터의 구조적 문제를 해결하기 위해, 모듈형 데이터센터 구축과 운영·관리 통합 소프트웨어 개발을 추진하고 있습니다. AI 시대에 적합한 차세대 데이터센터의 모델(Reference Architecture)을 실증하는 것을 목표로, 에너지 효율성, 확장성, 운영의 유연성을 모두 갖춘 인프라를 설계하고 있습니다.<br><br>25년 5월, 우수한 기술력을 바탕으로 LG유플러스, KDB산업은행, 퀀텀벤처스코리아, 어센도벤처스로부터 총 80억 원 규모의 시리즈 A 투자를 유치하였으며, 현재까지 누적 투자 112억 원을 달성했습니다.<br><br>AI의 보편화가 더 많은 사람에게 혜택을 나누는 사회적 전환점이 될 수 있다고 믿습니다. 이 뜻에 공감하고 함께 세상을 AI롭게 만들고 싶은 분들을 기다립니다.<br><br> ---<br>[ RA:X (Reference Architecture of TEN) Team ]<br>RAX 팀은 고객의 AI 개발 및 운영 목적에 알맞게 ‘AI 인프라의 구축(HW)’과 ‘효율적인 운영 도구(SW)’를 함께 지원함으로써, 기업의 ‘AI 전환(AI Transformation)’을 가속화하는 역할을 담당합니다. <br><br>이를 위해 RAX 팀은 두 가지 방향의 연구를 동시에 수행합니다.<br>• AI for Infrastructure: AI 인프라를 효율적으로 사용하기 위한 AI 기술을 개발<br>• Infrastructure for AI: AI 개발과 운영을 위한 AI 인프라 기술과 소프트웨어를 개발 <br><br>RA:X의 목표는 이 두 영역 간의 선순환 구조를 만들어 지속적인 최적화가 가능한 AI 인프라를 구축하는 것입니다. <br>특히, TEN은 RAX팀의 연구를 뒷받침하기 위한 AI RA(Reference Architecture) 인프라를 보유하고 있습니다. <br>• GPU 서버: DGX-H100, DGX-A100 를 비롯한 다양한 티어의 GPU 서버<br>• 네트워크 장비: Infiniband(400G, 200G, 100G), Ethernet(400G, 100G)<br>• 스토리지: 다양한 벤더의 네트워크/분산 파일 시스템 스토리지<br><br>중요한 것은 AI RA가 인공지능 인프라 기술 R&D를 하기 위한 전용 장비라는 것입니다. 특히 하드웨어 벤더들이 신제품이 나오면 RAX팀에 성능 테스트를 의뢰할 만큼 국내에서는 유명한 인프라이며, 이를 바탕으로 최신 트렌드 연구가 활발히 이루어지고 있습니다.</p><h2>주요업무</h2><p>[공통]<br>• AI 및 AI 인프라 관련 다양한 기술 리서치 및 제품화<br>• 딥러닝 기술 트렌드에 맞는 인프라 기술 조사 및 적용<br>• MLOps 플랫폼 리서치 및 기술 반영<br><br>[AI For Infrastructure]<br>• AI 인프라 운영을 위한 LLM 서비스 개발<br>• 효율적인 워크로드 스케줄링 알고리즘 개발 <br>• AI 서비스의 SLO(Service Level Objective)의 달성을 위한 인프라 구성 추천 모델 개발<br><br>[Infrastructure for AI]<br>• 자사 Kubernetes 기반 GPUaaS 플랫폼의 MLOps 기능 기획 및 구축<br>• GPU 효율성을 높이기 위한 시스템 소프트웨어 개발<br>• AI 워크로드의 성능 모니터링 및 프로파일링 서비스 개발</p><h2>자격요건</h2><p>[공통]<br>• AI 및 AI 인프라 관련 경력 3년 이상 (혹은 관련 석박사 학위자의 경우 신입 가능)<br>• [AI For Infrastructure]나 [Infrastructure for AI] 영역 중 하나 이상의 자격 요건을 보유한 분<br>• AI 및 인프라 관련 기술 문제를 정의하고 해결한 경험이 있는 분<br>• Kubernetes, Docker, 리눅스 서버에 대한 이해와 시스템 운영 능력<br>• AI를 활용해 생산성을 높이고 새로운 문제 해결에 도전할 수 있는 분<br><br>[AI For Infrastructure]<br>• 딥러닝 모델 개발 및 운영 경험이 있는 사람<br>• AI 인프라 문제를 정의하고 개선한 경험이 있는 사람 <br><br>[Infrastructure for AI]<br>• Kubernetes의 오픈소스 MLOps 생태계를 활용한 프로젝트 경험이 있는 사람<br>• 머신러닝 개발자의 관점에서 MLOps 지원 요소를 분석 및 정의하고 이를 개발할 수 있는 사람</p><h2>우대사항</h2><p>[AI For Infrastructure]<br>• AI 인프라 성능 개선 요소를 도출하고 이를 해결한 경험<br>• 딥러닝 프레임워크 기반 모델 개발 및 추론 서비스를 배포하였으며 이를 통해 주요한 문제를 해결한 경험<br>• AI템 관련 주요 학회 및 저널 논문 출판 경험<br><br>[Infrastructure for AI]<br>• MLOps 플랫폼(예: Kubeflow, MLflow, Seldon, Airflow 등) 구축 또는 운영하여 효율성을 향상시킨 경험<br>• Kubernetes 및 클라우드 네이티브 오픈소스 기여 경험<br>• GPU 최적화 관련 연구 수행자 혹은 석박사 학위 소지자</p><h2>혜택 및 복지</h2><p>• 출퇴근 시간이 자유로운 유연 근무제<br>• 재택 or 출근 근무 선택 가능<br> * 재택 근무자의 경우 필요시 출근<br>• 자유로운 연차 사용<br>• 점심 식대 제공<br>• 명절 선물비 지원<br>• 운동비 일부 지원<br>• 경조사 지원<br>• 역삼역 3분 거리 Sparkplus 역삼3호점</p>




