Autoencoder(오토인코더)는 비지도 학습(unsupervised learning) 기법 중 하나로, 입력 데이터를 압축(encoding)하고 다시 복원(decoding)하는 신경망 모델이다. 주로 차원 축소(dimensionality reduction), 노이즈 제거(denoising), 이상 탐지(anomaly detection) 등의 작업에 사용된다.🔹 Autoencoder의 구조Autoencoder는 크게 Encoder, Bottleneck(Latent Space), Decoder 3가지 부분으로 구성된다.Encoder (인코더)입력 데이터를 저차원 표현(latent space)으로 압축하는 역할차원 축소 기능을 수행일반적으로 Dense, CNN, RNN 등의 신경망 구조 사용Bottlen..

1. SGD (Stochastic Gradient Descent, 확률적 경사 하강법)공식:θ=θ−η∇J(θ) (θ는 모델의 가중치, η는 학습률, ∇J(θ)는 손실 함수의 기울기)설명:가장 기본적인 최적화 알고리즘으로, 배치 데이터가 아니라 랜덤한 샘플 하나 또는 미니배치 데이터를 이용해 가중치를 갱신.계산량이 적고 간단하지만, 진동(oscillation)이 심하고 수렴 속도가 느림.장점:구현이 쉽고 계산량이 적음.단점:최적점 근처에서 진동이 크고, 지역 최적점(local minima)에 빠질 수 있음.사용 사례:간단한 모델에서 기본적으로 사용되지만, 보통 다른 방법과 함께 사용됨.2. Momentum (모멘텀)공식:(vt는 속도, γ는 모멘텀 계수, 보통 0.9)설명:기존 SGD에 속도를 더해주는 개..

1. L1 Loss (Mean Absolute Error, MAE)공식:설명:예측값 y^와 실제값 y의 차이(절대값 평균)를 계산하는 손실 함수입니다.특징:이상치(Outlier)에 강함 (L2보다 덜 민감)기울기가 일정하여 안정적인 학습 가능사용 사례:회귀 문제에서 이상치가 많을 때 사용2. MSE Loss (Mean Squared Error, L2 Loss)공식:설명:예측값과 실제값의 차이를 제곱하여 평균을 구하는 손실 함수입니다.특징:차이의 제곱을 사용하여 큰 오차(이상치)에 더 민감함L1 Loss보다 더 부드러운 미분값을 가지므로 학습이 더 안정적사용 사례:일반적인 회귀 문제에서 자주 사용3. Cross Entropy Loss (Categorical Cross-Entropy)공식:(여기서 yi는 실..
Claude 3.5는 Anthropic에서 개발한 가장 최신 AI 모델이고, Sonnet은 이의 두 가지 버전(1과 2)을 의미합니다.주요 차이점Sonnet 1확장형(context window)이 더 작음처리 속도가 더 빠름비용이 더 저렴함Sonnet 2더 큰 확장형(context window)더 정교한 추론 능력더 나은 코딩 능력더 높은 비용선택 기준간단한 작업이나 빠른 응답이 필요한 경우 Sonnet 1복잡한 분석이나 코딩이 필요한 경우 Sonnet 2가 적합실제 성능 차이나 구체적인 수치는 공개되어 있지 않아 정확한 비교는 어려운 상황입니다. 확장형(Context Window)확장형(Context Window)은 AI가 한 번에 처리하고 이해할 수 있는 텍스트의 길이나 범위를 의미합니다. 쉽게 설명..
범주형 자료 분석 - 피어슨 검정 1) 적합도 검정 (goodness of fit test) - 관측값들이 어떤 이론적 분포를 따르고 있는지 검정 (보통 한 개의 요인 대상) ex) 맨델의 유전법칙 : 완두콩 교배 실험 9:3:3:1 2) 독립성 검정 (test of independence) - 서로 다른 요인들에 의해 분할되어 있는 경우 그 요인들이 관찰값에 영향을 주고 있는지 아닌지, 요인들이 서로 연관이 있는지 없는지를 검정 (두 개의 요인 대상) ex) 성별과 흡연/비흡연 여부 3) 동질성 검정 (test of homogeneity) - 관측값들이 정해진 범주 내에서 서로 비슷하게 나타나고 있는지를 검정 - 속성 A, B를 가진 부모집단 각각으로부터 정해진 표본의 크기만큼 자료를 추출하는 경우에 ..
- t-test는 2개 집단에 대한 평균 차이를 검증하는 방법 -> 3개 이상의 집단부터는 불가능 - 분산분석(ANOVA)는 2개 이상의 집단에 대한 비교를 수행 평균 차이를 검증하기 위함인데 왜 분산? - 분산이란 평균에서 얼마나 흩어져 있는지 정도인데 분산이 커진다면 집단 간의 평균이 차이가 있다는 것으로 볼 수도 있음 - 분산의 분포를 볼 때는 F분포 이용 - F ratio (F 검정통계량) = 그룹 간 분산 / 그룹 내 분산 가설검정 - H0 : 모든 그룹의 평균이 같다 - H1 : 어떤 그룹의 평균이 같지 않다 (적어도 하나의 그룹은 다른 평균을 가지고 있다) 전체 분산은 두 개의 독립적인 분산으로 구성되어 있다 - 그룹별 특성에 따른 분산 (SSB) - Random error로서의 분산 (SS..
아래 웨비나 참여하고 기록용https://gc.hosting.kr/2023_ga4_bigquery/마케터가 읽어야 할 데이터 - 유성민 대표구글 애널리틱스 : 웹 로그 분석 툴마케터가 데이터 분석이 필요한 이유통제력 / 커뮤니케이션 / 가설의 검증통제력예를 들면 어느 채널을 통해 들어오는 유저가 Retention이 높은지 살펴보고 효율이 높은 채널에 광고비를 더 많이 집행하는 등에 활용할 수 있다아래는 구글 애널리틱스에서 확인할 수 있는 유입 경로Paid Social : 광고 상품으로 들어온 유저Organic Search : 자연적으로 네이버/구글과 같이 검색엔진으로 들어온 유저…커뮤니케이션데이터로 소통하는 조직 = 실행력이 빨라질 수 있는 조직가설의 검증차원분석 / 증감분석 / 인과분석차원분석 : RO..
- Total
- Today
- Yesterday
- svelte
- ReactDOM
- 카이제곱검정
- Python
- DOM
- 역량테스트
- SW역량테스트
- docker
- 삼성
- konlpy
- Next.js
- Polygon
- aws
- 렌더트리
- 블로그플랫폼
- 도커컨테이너
- graphql
- choropleth
- architecting
- react
- 삼성전자
- GeoPolygon
- Plotly
- wkt
- tsconfig
- submodule
- polyfill
- cssom
- 삼전
- SCSA
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |