2018. 1. 6. 06:47 개발
Hypothesis test
'개발' 카테고리의 다른 글
Spring 1 (0) | 2018.02.03 |
---|---|
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
PriorityQueue(Java) (0) | 2018.01.05 |
MVC 아키텍처 (0) | 2018.01.05 |
Tree (0) | 2018.01.04 |
2018. 1. 6. 06:47 개발
Spring 1 (0) | 2018.02.03 |
---|---|
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
PriorityQueue(Java) (0) | 2018.01.05 |
MVC 아키텍처 (0) | 2018.01.05 |
Tree (0) | 2018.01.04 |
2018. 1. 5. 14:07 개발
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
---|---|
Hypothesis test (0) | 2018.01.06 |
MVC 아키텍처 (0) | 2018.01.05 |
Tree (0) | 2018.01.04 |
Queue (0) | 2018.01.04 |
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
---|---|
Hypothesis test (0) | 2018.01.06 |
PriorityQueue(Java) (0) | 2018.01.05 |
Tree (0) | 2018.01.04 |
Queue (0) | 2018.01.04 |
이진 트리가 아닌 트리는 잘 출제X
이진트리가 주어지면, 이진 탐색 트리인지 확인.
이진 탐색 트리
Breadth first search, depth first search 정도는 알아두자. -> 암기
Tree의 balance를 맞춰주는 구현은 출제 빈도가 낮다.
균형잡힌 트리인 경우에 검색시간은 O(logn) 이다.
balance가 맞는 상태는 모든 노드의 자식들의 높이 차이가 2이상 나지않는것
그래프와 트리의 차이
트리는 그래프인데 그래프 중 사이클이 허용X
출제의 대부분은 그래프내에서의 탐색 문제
방향성이 있는 그래프인지 모호한 경우, 질문해야함.
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
---|---|
Hypothesis test (0) | 2018.01.06 |
PriorityQueue(Java) (0) | 2018.01.05 |
MVC 아키텍처 (0) | 2018.01.05 |
Queue (0) | 2018.01.04 |
Java에서 Queue는 interface.
따라서, Queue q = new LinkedList(); (O)
Queue q = new Queue(); (X)
Try Catch 를 고려하지않고 문제에 집중할수있게 offer(), poll(), peek()를 쓰는것이 좋다.
Java9과 Spring5 로 바라보는 Java의 변화와 도전 (0) | 2018.01.17 |
---|---|
Hypothesis test (0) | 2018.01.06 |
PriorityQueue(Java) (0) | 2018.01.05 |
MVC 아키텍처 (0) | 2018.01.05 |
Tree (0) | 2018.01.04 |
딥러닝 기반 침수 수위 예측: 미국 텍사스 트리니티강 사례 연구
간단한 요약 정리
RNN을 이용하여 홍수 피해 방지를 위한 침수 예측.
강의 수위 관측 데이터 사용.
학습 2013~2015, 평가 2016
input = 16레코드로 구성된 15분단위의 시계열 데이터
output = 30분과 60분 후의 강의 수위 예측 정보
딥러닝 모델 = RNN, RNN-BPTT, LSTM
LSTM의 NE(Nash Efficiency)가 0.98의 정확도
의견
딥러닝을 활용하여 홍수 피해 방지라는 문제를 해결하려는 참신한 시도.
또한, LSTM의 메모리 셀과 활성화 함수를 수식을 이용한 표현.
RNN모델의 문제점 중 하나인 VG(Vanishing Gradient)를 해결하기 위해 LSTM을 사용하였고
그에 따른 설명이 잘 되어있다.
RNN은 재귀적인 방법으로 되어서 초기의 W의 값에 따라서 발산하거나 0이 될수도있는데
LSTM에서는 메모리셀을 둬서 이전의 W값을 따로 학습시켜 초기 W의 민감도를 낮춰 VG문제가 발생하지 않게 함.
배운점
레퍼런스가 잘 되어있고 그래프를 통한 결과의 시각화가 잘 되어있다.
RNN-BPTT와 NE의 개념에 대한 공부 필요~!
출처