AI

    미드저니

    https://lifenourish.tistory.com/2002

    DenseNet

    https://csm-kr.tistory.com/10 [Deep Neural Network] Densenet 논문리뷰 및 구현 (CVPR2017) 안녕하세요 pulluper 입니다. 오늘은 CVPR2017 에 best paper 를 받은 "Densely Connected Convolutional Networks" 에 대해서 알아보고 이해를 위한 간단한 layer 를 pytorch 로 구현 해보겠습니다. :) arxiv.org.. csm-kr.tistory.com https://reliablecho-programming.tistory.com/3 [2~3주차] DenseNet 원래는 전이학습을 정리하기 전에 먼저 올려야 순서가 맞지만 이미 Jupyer notebook으로 정리를 했기때문에 빨리 올려보려고 합..

    인공지능(AI)의 1차, 2차 겨울

    인공지능(AI)의 1차, 2차 겨울

    1956년 다트머스 회의에서 최초로 '인공지능' 용어를 사용한 이래, 와 두 학파로 크게 구분 되었다. 연결주의는 사람의 뇌 구조를 본 떠서 기계의 지능을 구현하자고 주장한 학파이다. 연결주의라고 불리는 이유는 '뇌 신경망이 시냅스로 여러 뉴런이 연결된 구조'를 가지고 있기 때문이다. 이에 '프랭클린 로젠블랫'은 컴퓨터도 신경망으로 학습시켜 추론하게 하자는 퍼셉트론 신경망을 제시하게 되었다. [AI 1차 겨울 -1969] 로젠블랫의 퍼셉트론 신경망에 관심과 지원이 집중될 때, 마빈 민스키와 그의 제자 시모어 페퍼트는 1969년 퍼셉트론의 문제점과 한계를 수학적 증명으로 발표하였다. 퍼셉트론은 AND 혹은 OR 같은 선형분리가 가능한 문제는 가능하지만, 선형(LINEAR) 방식으로 데이터를 구분할 수 없는..

    [논문 분석] EAST: An Efficient and Accurate Scene Text Detector

    [논문 분석] EAST: An Efficient and Accurate Scene Text Detector

    https://youtu.be/_4CFxre4b1s 들어가기에 앞서, 기존의 텍스트 디텍션(이미지에서 글자가 위치한 ‘영역’을 탐지하는 Detection)을 살펴본다. Basic of Scene text detection · 기본적 텍스트 디텍션의 목표는 글자가 위치한 bounding box 좌표를 최대한 정확히 맞추려는 것 · 그렇기에, Regression 문제로 접근한다. · 글자 영역은 Region proposal 또는 Region of Interest(ROI)라 한다. (좌표값 예측 방법론) · 글자 영역의 좌표값 예측은 여러가지 방법론이 존재한다. · 베이직한 방법론은 주로, CNN으로 이미지 특징을 추출 후, 디코더로 단어 영역을 생성하는 방식이다. · 고전적인 Object Detection ..

    fit, transform, fit_transform

    https://khalidpark2029.tistory.com/82 fit_transform과 transform의 차이,싸이킷런 encoder = OneHotEncoder(use_cat_names=True) X_train_encoded = encoder.fit_transform(X_train) X_val_encoded = encoder.transform(X_val) linear regression 진행할 때, fit_transform과 transform을 모델링에 적용하는데 둘의 차이점은 무엇일 khalidpark2029.tistory.com https://david-kim2028.tistory.com/entry/%EB%8D%B0%EC%9D%B4%ED%84%B0-%EC%A0%84%EC%B2%98%EB%A..

    활성화 함수 Activation Function

    활성화 함수 Activation Function

    [ 활성화 함수 (Activation Function) ? ] 활성화 함수란? 신경망에서 신호의 총 합을 출력 신호로 변환하는 함수입니다. 퍼셉트론은 인간의 뇌의 뉴런을 모방하여 만든 것이며, 뉴런이 말단에서 다음 뉴런으로 전달 될 때, 어떠한 임계값을 기준으로 신호가 전달된다고 합니다. 퍼셉트론은 뉴런과 같이 입력 받은 수치들을 계싼한 후 출력 전에 활성화 함수를 거치게 하여 출력에 변화를 줍니다. 0. 계단함수/선형함수 퍼셉트론의 가장 기본이 되는 활성화 함수 : 계단 함수(Step Function)를 학습하였으며, 선형 함수(Linear Function)입니다. 선형 함수는 미분봐야 계수이므로, 층을 쌓는 것이 무의미해진다는 단점이 있습니다. 비선형함수 중 하나인 계단 함수는 출력을 0과 1의 이진..

    Gradient Vanishing(기울기 소실) 문제 간단 설명

    Gradient Vanishing(기울기 소실) 문제 간단 설명

    [ 기울기소실 Gradient Vanishing 이란? ] "딥러닝 학습 과정에서 출력값과 멀어질 수록 학습이 되지 않는 현상" 신경망 학습은 은닉층(Hidden Layer)를 늘려야 복잡한 문제의 해결이 가능한데, 인공신경망의 계층이 깊어질 수록(은닉층을 많이 거칠수록) 학습에 중요한 역할을 하는 입력층의 가중치 조정(Back-Propagation하는 과정)이 제대로 되지 않아 1)가중치가 발산하거나, 2)곡선의 기울기(Gradient)가 0이 되어 학습이 제대로 되지 않는 현상이 발생합니다. 기울기가 거의 0으로 소멸되어 버리면 Network의 학습은 매우 느려지고, 학습이 다 이루어지지 않은 상태에서 멈출 것입니다. 이를 지역 최솟값(Local Minimum)에 도달한다고 표현하기도 합니다. 이 문..