RNN 예제

Me too는 다변량(숫자) 데이터를 사용하는 데 관심이 있을 것입니다! 며칠 동안 노력했지만 “재구성 / 형성 / 데이터 형식 – 블랙 매직”은 항상 순수하게 나는 아직 이해하지 못하는 원인을 깨뜨립니다! 그렇지 않으면 좋은 예! 즉, 피드포워드 네트워크는 시간에 따라 순서에 대한 개념이 없으며, 이 네트워크가 고려하는 유일한 입력은 현재 의 예에 노출된 예제입니다. 피드 포워드 네트워크는 최근 과거에 대한 기억 상실증입니다; 그들은 향수만 훈련의 조형 순간을 기억한다. 안녕. 나는 항상 당신의 좋은 글을 참조하십시오. 나는 섹션 2 예제에 약간의 오타가 있다고 생각합니다. 제 1 시퀀스는 [3,1,2,3,3]이고 두 번째 시퀀스는 [4,1,2,3,4]입니다. 첫 번째 시퀀스의 추론 예제 1 -> 2, 2 -> 3은 정확하지만 두 번째 시퀀스는 1 -> 2, 2 -> 3과 동일합니다. 첫 번째 시퀀스와 두 번째 시퀀스 간의 차이를 표시하는 것이 목표라면 첫 번째 시퀀스의 2-> 3, 3-> 3과 두 번째 시퀀스의 2-> 3, 3-> 4를 비교하는 것이 올바른 예라고 생각합니다. 나는 오해 했을 수 있습니다., 하지만 그것은 도움이 되는 경우 코멘트를 남길 거 야.

벡터라는 단어는 이 자습서에서와 같이 별도로 학습하거나 Keras LSTM 네트워크를 학습하는 동안 학습할 수 있습니다. 다음 예제에서는 각 단어를 의미 있는 단어 벡터로 변환하기 위해 포함 레이어라고 하는 것을 설정합니다. 포함 레이어의 크기를 지정해야 합니다. 즉, 포함 레이어 크기가 250이면 각 단어는 [$x_1, x_2, x_3,ldots, x_{250}]과 같은 250길이 벡터로 표시됩니다. 왜 예브게니를 볼 수 없습니다., 죄송합니다 나는 예가 없습니다. 친애하는 제이슨 박사님, 저는 py3.4.4에서 3.6으로 전환할 것입니다. 나는 lstm 예를 시도하는 또 다른 시도가 있었다. num_steps가 5로 설정된 경우 지정된 샘플의 입력 데이터로 사용되는 데이터는 “고양이가 에 앉아 있다”입니다. 이 경우 모델을 통해 시퀀스의 바로 다음 단어를 예측하기 때문에 각 시간 단계마다 일치하는 출력 y 또는 대상 데이터는 “매트에 앉아 있는 고양이”가 됩니다. 마지막으로 skip_steps는 다음 데이터 일괄 처리를 하기 전에 건너뛸 단어 의 수입니다.

이 예제에서 skip_steps=num_steps인 경우 다음 배치에 대한 다음 5개의 입력 단어는 “매트와 그의 모자를 다했다”입니다. 바라건대 그것은 의미가 있습니다. 결론 : 외부 파이썬34 또는 conda의 python34를 사용하든 lstm 예제는 작동하지 않습니다. 오류의 종류는 다릅니다. 결론 II : 나는 내 모교의 와이파이 (매우 빠른)로 가서 python36을 다운로드하고 python36에 모든 패키지를 다시 설치할 수 있습니다. 안녕하세요 데이터에 원시 예제를 실행할 때 발견, 학습 데이터는 실제 플롯의 오른쪽으로 이동 하는 것 같고 첫 번째 예제에서 그래프와 동일 하지, 왜 이것 수 있을까? 이전 시간 단계 예제를 상태 조정 LSTM을 사용할 수 있습니다. 전체 코드 목록은 아래에 제공됩니다. 안녕! 우선, 튜토리얼 주셔서 감사합니다. 예제와 매우 유사한 데이터를 예측하려고 합니다. 나는 당신이 준 코드를 가지고 놀고 있었지만, 매우 이상한 일이 일어났다 : 나는 비행 데이터를 사용하여 모델을 맞추고 그 하이퍼 매개 변수를 사용하여 백색 잡음을 예측하면 매우 정확한 결과를 받습니다.

예: #동일한 열차/테스트 분할 예train.size <- floor(길이(df) * 0.67) ts.train <-train<-ts(df[1:train.size]), 시작=c(1949,1), 주파수=12) ts.test <-ts(df[train.size+1):p)],[df[(train.size+1):)], 끝=c(1960)의 경우 네트워크, 입력 예제는 네트워크에 공급되고 출력으로 변환됩니다. 감독 학습을 통해 출력은 레이블, 입력에 적용된 이름이 됩니다.