한국어로는 정규화로 비슷하기때문에 영어로 알아놓을것. Normalization과 Regularization은 머신러닝에서 모델의 성능을 개선하기 위한 방법. -Normalization 데이터의 범위를 일정하게 조정하여 학습을 안정화시키는 방법입니다. 예를 들어 이미지 픽셀 값 범위(0 ~ 255)를 255로 나눠 0 ~ 1의 범위로 축소시키는 방식이 있습니다. -Regularization 모델이 학습 데이터에 과적합(overfitting)되는 것을 막기 위한 방법입니다. L1, L2 등의 규제(regularization)를 추가하여 가중치(weight)가 커지지 않도록 제한합니다. -Standardization 값의 범위(scale)를 평균 0, 분산 1이 되도록 변환 참고할 블로그: https://re..
-하이퍼 파라미터 하이퍼파라미터는 머신러닝 모델링할 때 사용자가 직접 세팅해주는 값을 뜻합니다. 하이퍼파라미터는 learning rate나 서포트 벡터 머신에서의 C, sigma 값, KNN에서의 K값 등등 굉장히 많습니다. 모델 파라미터와 달리 하이퍼파라미터는 모델 학습 과정에서 최적의 값을 찾아내지 않고 사용자가 직접 지정해줘야 합니다. -하이퍼파라미터를 설정하는 방법 1.그리드 탐색 기본적인 최적화방법. 하이퍼파라미터의 값들을 미리 정해놓은 범위에서 모든 조합을 시도해보는 것이다. 이 방법은 하이퍼파라미터의 값들이 서로 독립적인 경우에 적용하기 좋다. 단점: 모든 가능성을 살펴보기 때문에 하이퍼파라미터나 데이터가 많은 경우 시간이 매우 오래걸린다. 2.랜덤탐색 하이퍼파라미터의 값들을 랜덤하게 추출하..
-개념 교착 상태 또는 데드락은 두 개 이상의 작업이 서로 상대방의 작업이 끝나기 만을 기다리고 있기 때문에 결과적으로 아무것도 완료되지 못하는 상태이다. -데드락 발생조건 1) 상호 배제 (Mutual exclusion) 2) 점유 대기 (Hold and wait) 3) 비선점 (No preemption) 4) 순환 대기(Circular wait) 네가지 모두 성립할때 발생 / 하나라도 제거하도록하여 해결 -예방 자원의 낭비가 심함 1) 상호 배제 (Mutual exclusion) 부정 - 여러 개의 프로세스가 공유 자원을 사용할 수 있도록 한다. 2) 점유 대기 (Hold and wait) 부정 - 프로세스가 실행되기 전 필요한 모든 자원을 할당한다. 3) 비선점 (No preemption) 부정 -..
1.context switching 실행 중인 작업 또는 프로세스의 현재 상태를 저장하여 다른 작업 또는 프로세스가 동일한 프로세서 또는 CPU에서 실행될 수 있도록 하는 프로세스입니다. 프로세서가 작업을 실행할 때 다른 작업으로 전환하기 전에 레지스터 값과 프로그램 카운터를 포함하여 현재 상태를 메모리에 저장합니다. 이를 통해 프로세서는 다시 전환할 때 중단된 위치에서 원래 작업을 재개할 수 있습니다. Task의 대부분 정보는 Register에 저장되고 PCB(Process Control Block)로 관리되고 있습니다. 현재 실행하고 있는 Task의 PCB 정보를 저장하게 됩니다. (Process Stack, Ready Queue) 다음 실행할 Task의 PCB 정보를 읽어 Register에 적재하고..
1.Transaction, ACID에 대해서 설명해 보세요. 2.Transaction의 Isolation Level에 대해서 설명해 보세요. 1.Transaction, ACID 트랜잭션은 읽기와 쓰기를 하나의 논리적 단위로 수행하는 작업이다. Ex) A -> B로 송금할때 A에서 출금이 되고 B로 송금되기 전에 시스템이 멈추면? 이런것을 방지하기 위해 하나의 논리단위로 수행하는 것. ACID는 이러한 일관된 트랜잭션 처리를 보장하는 속성을 말한다. Atomicity: 트랜잭션이 분리할 수 없는 단일 작업 단위로 처리되도록 합니다. 트랜잭션의 일부가 실패하면 전체 트랜잭션이 롤백되고 데이터베이스가 이전 상태로 돌아갑니다. Consistency:데이터는 미리 정의된 규칙에서만 수정이 가능한 특성을 의미합니다..