전체 글 452

swift rethrows

swift rethrows 함수나 메서드는 rethrows 키워드를 사용하여 선언할 수 있음.이는 함수 매개변수 중 하나가 에러를 던질 경우에만 에러를 던진다는 것을 의미.이러한 함수와 메서드를 rethrowing 함수(rethrowing functions) 또는 rethrowing 메서드(rethrowing methods)라고 부름. func someFunction(callback: () throws -> Void) throws { try callback()} rethrowing 함수와 메서드는 적어도 하나의 throwing 함수 매개변수를 가져야 함.rethrowing 함수나 메서드는 오직 catch 블록 안에서만 throw 문을 포함할 수 있음. 이 규칙을 통해 do-catch 구문 안에서 ..

AVAudioEngine, AVAudioNode 정리

AVAudioEngine, AVAudioNode 정리 AVAudioEngine과 관련한 내용을 모아서 정리 목차AVAudioEngine오디오 렌더링이란?OverviewCreate an Engine for Audio File PlaybackAVAudioNodeOverviewConfiguring an Input Format BusAVAudioNodeBusinputFormat(forBus:)name(forInputBus:)numberOfInputsCreating an Output Format BusoutputFormat(forBus:)name(forOutputBus:)numberOfOutputsInstalling and Removing an Audio TapinstallTap(onBus:bufferSize:..

AVAudioFormat 정리

AVAudioFormat 정리 AVAudioFormat에 대해서 정리하며 연관된 지식도 모두 함께 정리. 목차AVAudioFormatAVAudioFormat의 프로퍼티들Getting the Audio Stream DescriptionstreamDescriptionGetting Audio Format ValuessampleRatechannelCountchannelLayoutformatDescriptionDetermining the Audio FormatisInterleavedisStandardcommonFormatsettingsmagicCookieAVAudioFormat과 AudioStreamBasicDescription의 비교 정리Channel과 ChannelLayout의 차이AVAudioCommonFo..

AudioStreamBasicDescription 정리

AudioStreamBasicDescription 정리 CoreAudioType에 속하는 AudioStreamBasicDescription를 정리. 목차AudioStreamBasicDescription패킷의 지속 시간(Duration) 계산구조체의 모든 필드를 0으로 초기화하는 코드Core Audio에서 사용하는 용어 정의AudioStreamBasicDescription의 Instance PropertymFormatIDmSampleRatemBitsPerChannelmBytesPerPacketmReservedmFramesPerPacketmChannelsPerFramemBytesPerFramemFormatFlags AudioStreamBasicDescription 오디오 스트림을 위한 포맷 명세서. 오..

AVAudioPCMBuffer 정리

AVAudioPCMBuffer 정리 AVAudioPCMBuffer를 학습하고 이와 관련한 개념들을 정리. 목차AVAudioPCMBuffer 선수 지식 정리AVAudioPCMBufferAVAudioPCMBuffer의 인스턴스 프로퍼티AVAudioPCMBuffer().frameLengthAVAudioPCMBuffer().frameCapacityAVAudioPCMBuffer().strideAVAudioPCMBuffer().floatChannelDataAVAudioPCMBuffer().int16ChannelData, AVAudioPCMBuffer().int32ChannelData AVAudioPCMBuffer 선수 지식 정리 AVAudioPCMBuffer를 학습하기 전에 사전 개념으로 필요.자세한 이론은 하..

AssetInventory 정리 + AssetInstallationRequest

AssetInventory 정리 + AssetInstallationRequest AssetInvenotry에 대해서 정리하고 관련된 메서드들 하나씩 정리 목차AssetInventoryOverviewInstall AssetsManage AssetsDownloading and installing assetsassetInstallationRequest(supporting:)Checking asset statusAssetInventory.StatusdownloadinginstalledsupportedunsupportedType PropertiesAssetInventory.maximumReservedLocalesAssetInventory.reservedLocalesType MethodsAssetInventory..

SpeechTranscriber 정리 + DictationTranscriber

SpeechTranscriber 정리 + DictationTranscriber SpeechTranscriber, DictationTranscriber 각각에 대해서 정리하고, SpeechTranscriber의 속성과 구현을 하나씩 확인. 목차 SpeechTranscriberOverviewCheck device supportDictationTranscriberOverviewImprove accuracySpeechTranscriber와 DictationTranscriber 비교 정리SpeechTranscriber 자세히 보기isAvailable과 supportedLocales 프로퍼티 정의Configuring transcriptionSpeechTranscriber.ReportingOptionSpeechTra..

적절한 하이퍼파라미터 값 찾기 및 구현 실습

적절한 하이퍼파라미터 값 찾기 및 구현 실습 신경망에는 하이퍼파라미터가 다수 등장.여기서 말하는 하이퍼파라미터는 뉴런 수, 배치 크기, 매개변수 갱신 시의 학습률, 가중치 감소 등이 존재. 적절한 값을 설정하지 못할 경우 모델 성능이 크게 떨어지기도 함.하이퍼파라미터 값은 매우 중요하지만, 그 값을 결정하기까지는 일반적으로 많은 시행착오를 겪음. 검증 데이터데이터셋을 훈련 데이터와 시험 데이터로 분리. 하이퍼파라미터의 성능을 평가할 때는 시험 데이터를 사용해서는 안됨.시험 데이터를 사용하여 하이퍼파라미터를 조정하면 하이퍼파라미터 값이 시험 데이터에 오버피팅되기 때문 하이퍼파라미터를 조정할 때는 하이퍼파라미터 전용 확인 데이터가 필요.하이퍼파라미터 조정 데이터를 일반적으로 검증 데이터라고 부름하이퍼파라미..

AI/DeepLearning 2025.11.19

오버피팅, 가중치 감소, 드롭아웃

오버피팅, 가중치 감소, 드롭아웃 오버피팅 오버피팅이란?신경망이 훈련 데이터에만 지나치게 적응되어 그 외의 데이터에는 제대로 대응하지 못하는 상태 기계 학습은 일반적으로 범용성 좋은 모델은 지향하나 훈련 데이터에는 없는 아직 보지 못한 데이터가 주어져도 바르게 식별해내는 모델이 바람직함.복잡하고 표현력 높은 모델을 만들 수는 있지만 그만큼 오버피팅을 억제하는 기술이 중요 오버피팅은 주로 다음과 같은 경우에 일어남매개변수가 많고 표현력이 높은 모델훈련 데이터가 적음 가중치 감소오버피팅 억제용으로 예로부터 많이 이용해온 방법 중 하나.학습 과정에서 큰 가중치에 대해서는 그에 상응하는 큰 페널티를 부과하여 오버피팅을 억제하는 방법.원래 오버피팅은 가중치 매개변수 값이 커서 발생하는 경우가 많기 때문...

AI/DeepLearning 2025.11.14

배치 정규화 Batch Normalization + Pytorch 실습

배치 정규화 Batch Normalization + Pytorch 실습 각 층의 활성화값 분포를 관찰해보며, 가중치의 초깃값을 적절히 설정하면 각 층의 활성화값 분포가 적당히 퍼지면서 학습이 원활하게 수행됨. 그렇다면 각 층이 활성화를 적당히 퍼뜨리도록 강제하면 더 좋지 않을까란 생각에서 배치 정규화가 출발함. 배치 정규화 알고리즘 2015년에 제안되었으나 많은 연구자가 현재까지도 사용하고 있음. 배치정규화의 장점학습을 빨리 진행할 수 있음.초깃값에 크게 의존하지 않음.오버피팅을 억제 (드롭아웃 등의 필요성 감소) 배치 정규화의 효과대부분의 초깃값 표준편차에서 학습 진도가 빠름.배치 정규화를 이용하지 않은 경우 초깃값이 잘 분포되지 않으면 학습이 전혀 되지 않는 경우도 있음. PyTorch를 이용한..

AI/DeepLearning 2025.11.13