하루종일 연구개발
close
프로필 배경
프로필 로고

하루종일 연구개발

  • 분류 전체보기 (46)
    • 딥러닝 논문 리뷰 (6)
      • Federated Learning (2)
      • Computer Vision (2)
      • Natural Language Processing (0)
      • Time Series & Tabular Data (2)
    • 딥러닝 이론 (9)
      • BasicML (9)
      • Computer Vision (0)
      • Natural Language Processing (0)
    • 딥러닝 & 개발 (28)
      • 개발 환경 설정 (9)
      • 에러 디버깅 (11)
      • 안드로이드 (2)
      • 딥러닝 개발 (5)
      • 스터디 (1)
    • 일상 (2)
      • 여행지 & 맛집 추천 (0)
      • Tip (2)
    • 이미지 저작권 표기 (1)
  • 홈
  • 딥러닝 논문 리뷰
  • 딥러닝 & 개발
  • 일상
  • 태그
  • 방명록

L1 Norm, L2 Norm, L1 Loss, L2 Loss 차이점

딥러닝에서 많이 사용되고, 베이스가 되는 L1 Loss, L2 Loss에 대해 정리하려고 한다. NormNorm은 벡터의 크기를 측정하는 방법이다. 두 벡터 사이의 거리를 측정하는 방법이기도 하다. Norm에는 다양한 방법이 있지만, 대표적으로 사용되는 것이 L1 Norm과 L2 Norm이다.  L1 Norm$d_1(p,q) = ||p-q||_1 = \sum^{n}_{i=1} |p_i-q_i|$, where $p=(p_1,p_2,...,p_n)$ and $q=(q_1,q_2,q_n)$L1 Norm은 위 수식과 같이, 두 원소의 절대 값의 합이다. 원점을 기준으로 하였을 때는, 해당 지점의 절대 값을 구하는 것과 같다. 아래는 L1 Norm의 예시이다. p = (3, 1, -3)q = (5, 0, 7)$d..

  • format_list_bulleted 딥러닝 이론/BasicML
  • · 2023. 11. 10.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (46)
    • 딥러닝 논문 리뷰 (6)
      • Federated Learning (2)
      • Computer Vision (2)
      • Natural Language Processing (0)
      • Time Series & Tabular Data (2)
    • 딥러닝 이론 (9)
      • BasicML (9)
      • Computer Vision (0)
      • Natural Language Processing (0)
    • 딥러닝 & 개발 (28)
      • 개발 환경 설정 (9)
      • 에러 디버깅 (11)
      • 안드로이드 (2)
      • 딥러닝 개발 (5)
      • 스터디 (1)
    • 일상 (2)
      • 여행지 & 맛집 추천 (0)
      • Tip (2)
    • 이미지 저작권 표기 (1)
최근 글
인기 글
최근 댓글
태그
  • #Apple Silicon
  • #linux
  • #pytorch
  • #github
  • #deep learning
  • #GitLab
  • #python
  • #federated learning
  • #GIT
  • #numpy
전체 방문자
오늘
어제
전체

티스토리툴바