본문 바로가기

부스트캠프 AI Tech/Product Serving

[03] Model Serving

  • Online Serving
    • 단일 데이터를 받아 실시간을 에측을 하는 문제. ex) 기계 고장 예측 모델, 음식 배달 소요 시간 에측
    • 직접 API 웹 서버 개발 : Flask, FastAPI
    • 클라우드 서비스 활용 : AWS의 SageMaker, GCP의 Vertex Ai 등
    • Serving 라이브러리 활용 : Tensorflow Serving, Torch Serve, MLFlow, BentoML 등
    • 바로 Serving 라이브러리를 활용해 개발하는 것보다 프로토타입, FastAPI 서버 개발을 먼저 해봐서
      여러가지 방법 중 이 방법을 왜 선택하는지에 대한 인식을 키우는 것이 중요하다. 오픈소스는 계속
      개발되고 있기 때문에 너무 라이브러리에 종속되지 말 것.
    • Serving 할 때 Python 버전, 패키지 버전 등 Dependency가 굉장히 중요 -> Virtualenv Poetry, Docker..
  • Batch Serving
    • 장점 : Online Serving 보다 구현이 수월하며 간단. Latency 문제 되지 않음
    • 단점 : Cold Start 문제 - 오늘 새로 생긴 컨첸츠는 추천할 수 없음

 


 

https://zzsza.github.io/data/2019/12/15/rules-of-ml/

 

Rules of Machine Learning: Best Practices for ML Engineering 정리

Google의 Research Scientist인 Martin Zinkevich가 작성하신 Rules of Machine Learning: Best Practices for ML Engineering 나름대로 번역하고 정리한 글입니다 Machine Learning Guides에 언어를 한국어로 조정하면 번역본이 나

zzsza.github.io

 

'부스트캠프 AI Tech > Product Serving' 카테고리의 다른 글

[04] 머신러닝 프로젝트 라이프 사이클  (0) 2021.12.08
[02] MLOps 개론  (0) 2021.12.07
[01] Product Serving 개론  (0) 2021.12.06
[00] 피어세션 정리  (0) 2021.12.06