일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 회귀
- 시스템프로그래밍
- 턱걸이
- 프로세스
- 공부
- 쉘
- CV
- 운영체제
- 딥러닝
- 백준알고리즘
- Windows 10
- 텐서플로우
- C++
- 알고리즘
- C언어
- linux
- 프로그래밍
- Windows10
- Computer Vision
- TensorFlow
- error
- 리눅스
- 백준
- 학습
- 코딩
- OpenCV
- c
- python
- shell
- 영상처리
- Today
- Total
목록공부 (28)
줘이리의 인생적기
저번 시간에 train, test 셋으로 나누는 작업까지 해보았습니다. 다음 작업은 정답 행렬을 원-핫 인코딩 방식으로 바꾸는 함수를 사용하는 것입니다. https://wikidocs.net/22647 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 원-핫인코딩에 관한 내용은 이 자료를 이용하시면 되겠습니다. 그 이후 모델을 만들고, complie 후 네트워크 학습을 시키도록 하겠습니다 import pandas as pd import matplotlib.pyplot as plt import numpy as np import tensorflow as tf #wine 데이터 받아오기 red = pd.read_csv('http://archive.ics.uci.edu/ml/machine..
이항 분류는 정답의 범주가 2개인 분류 문제입니다. 예를 들어, 개냐 고양이냐, 사람이냐 자동차냐하는 문제이죠. 이항 분류에서 또 유명한 데이터셋이죠 와인 데이터를 이용하여 이항 분류를 공부해보겠습니다. 와인 데이터셋은 앞서 공부한 보스턴 가격 주택처럼 keras와 tensorflow처럼 내장되어 있지 않습니다. 외부에서 데이터를 불러오는 과정이 필요합니다. 먼저 이 데이터는 당도, 밀도, 산도, 알코올 도수, 품질 등 12개 속성을 가지고 있습니다. 첫 번째로 할 일은 이 데이터를 사용하기 위해 화이트인지 레드인지에 대한 속성을 추가해주어야겠죠 두 번째는 데이터들을 합치고, 랜덤하게 섞는 과정이 필요합니다. 마지막은 보스턴 주택 가격 데이터셋에서 했던 것처럼 데이터 정규화가 필요합니다. 정규화 전까지의..
이번에는 직선이 아니라 곡선 회귀선을 구해보도록 하겠습니다. 직선인 1차 함수에서 곡선 2차 함수로 조금 복잡해지기 때문에 함수명을 조금 간단하게 바꾸어보도록 하겠습니다. import tensorflow as tf import numpy as np import matplotlib.pyplot as plt import random #X = school_age_population, Y = elderly_population X = [16.4, 14.7, 17.2, 16.6, 17.1, 20.3, 17.2, 15.6, 17.4, 18.7, 16.9, 17.1, 15.8, 19.3, 16.6, 15.1, 17.9] Y = [11.4, 13.2, 11.1, 17.6, 16.3, 9.2, 15.2, 18.4, 18...
tensorflow 10번째 게시물에서 수식과 최소제곱법을 이용하여 회귀선을 도출했었습니다. 하지만 텐서플로우에서는 이러한 어려운 수학 수식없이 회귀선을 구할 수 있습니다. [tensorflow 10] 선형회귀01 에서 사용했던 자료들을 이용해보겠습니다. 먼저, tf.Variable를 통해 랜덤 값을 뽑아내고 tf.reduce_mean을 통해 잔차의 제곱의 평균을 뽑아내고 tf.optimizers를 통해 잔차의 제곱의 평균을 최소화하려고 합니다. import tensorflow as tf import numpy as np import matplotlib.pyplot as plt import random school_age_population = [16.4, 14.7, 17.2, 16.6, 17.1, 20..