Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- ai 새싹 부트캠프 7일차
- 취준생
- 새싹 AI데이터새싹 엔지니어 부트캠프 2일차
- 새싹 AI데이터새싹 엔지니어 부트캠프 1일차
- T
- 새싹 AI데이터새싹 엔지니어 부트캠프 3일차
- ai 새싹 부트캠프 6일차
- ai 새싹 부트캠프 5일차
- ㅂ.
- ASAC
- X
- 데이터분석가
- 데이터관련면접
- 데이터분석가면접준비
- Til
- 새싹 AI데이터새싹 엔지니어 부트캠프
- ai 새싹 부트캠프 4일차
- 통계용어 정리
Archives
- Today
- Total
데이터 공부기록
[DL] 단어장 본문
영어단어 한국어번역 자세한 설명
Dropout | 드롭아웃 | 신경망의 학습 과정에서 무작위로 선택된 일부 뉴런을 제외시키는 것으로, 이를 통해 과적합을 방지하고 모델의 일반화 능력을 향상시키는 방법입니다. |
Batch Normalization | 배치 정규화 | 신경망 학습 과정에서 각 층의 입력을 정규화하여 학습을 안정화시키고 속도를 높이는 방법으로, 내부 공변량 변화 문제를 완화하는 기법입니다. |
Data Preprocessing | 데이터 전처리 | 원시 데이터를 모델 학습에 적합한 형태로 변환하는 과정으로, 데이터 정제, 정규화, 인코딩, 결측치 처리 등이 포함됩니다. |
Convex Optimization | 볼록 최적화 | 목적 함수와 제약 조건이 볼록(convex)한 최적화 문제를 해결하는 기술로, 단일 전역 최소값을 가지며 안정적으로 최적화할 수 있는 방법입니다. |
Ensemble Learning | 앙상블 학습 | 여러 개의 모델을 결합하여 더 나은 성능을 달성하는 학습 방법으로, 배깅, 부스팅, 스태킹 등이 있습니다. |
Initialization | 초기화 | 신경망 가중치 초기화 과정으로, 모델 학습 전에 가중치와 편향을 적절하게 설정하는 것을 의미합니다. |
Iteration | 반복 | 최적화 알고리즘에서 한 번의 반복적인 과정을 의미하며, 학습 과정에서 모델이 업데이트되는 단계를 나타냅니다. |
Deactivation | 비활성화 | 신경망에서 특정 유닛, 뉴런, 또는 층을 비활성화시키는 과정으로, 모델의 일부를 잠시 동안 활성화하지 않는 것을 말합니다. |
Inference | 추론 | 모델이 학습된 후에 새로운 데이터에 대해 예측하거나 분류하는 과정으로, 학습된 모델을 실제로 활용하는 것을 의미합니다. |