Skip to content

Commit

Permalink
Adiciona mais referências em regressão linear
Browse files Browse the repository at this point in the history
  • Loading branch information
matheusfacure committed Dec 7, 2016
1 parent e2ddc61 commit d78761e
Show file tree
Hide file tree
Showing 3 changed files with 9 additions and 3 deletions.
9 changes: 7 additions & 2 deletions Regressão Linear/Regressão Linear.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -1578,7 +1578,7 @@
"\n",
"Em problemas de aprendizado de máquina, é recomendável utilizar o modelo de regressão linear como uma primeira tentativa, devido à sua simplicidade e capacidade interpretativa. Das vantagens do modelo de regressão linear podemos destacar:\n",
"\n",
"1) É de fácil interpretabilidade. A variável de saída $y$ pode ser vista como uma soma das variáveis de entrada $X$ ponderada pelos parâmetros $w$. Assim, é possível saber diretamente qual variável de $X$ mais contribui para a variável de saída: a correspondente ao parâmetros com maior valor absoluto. \n",
"1) É de fácil interpretação. A variável de saída $y$ pode ser vista como uma soma das variáveis de entrada $X$ ponderada pelos parâmetros $w$. Assim, é possível saber diretamente qual variável de $X$ mais contribui para a variável de saída: a correspondente ao parâmetros com maior valor absoluto. \n",
"2) É um modelo rápido de treinar, uma vez que o ponto de minimização dos erros quadrados pode ser encontrada analiticamente, sem necessidade de métodos iterativos. \n",
"3) Uma vez treinado, o regressor ocupa puco espaço de RAM. \n",
"4) Produz bons resultados preditivos. Normalmente, o erro do modelo linear é apenas um pouco mais alto do que os obtidos com algoritmos de aprendizado de máquina mais complexo. \n",
Expand All @@ -1598,7 +1598,12 @@
"\n",
"<br/>\n",
"2) Para entender mais: \n",
"O item sobre regressão no capítulo 2 do livro [Introduction to Machine Learning](https://mitpress.mit.edu/books/introduction-machine-learning) mostra bem o dilema entre superajustamento e subajustamento. A universidade de Stanford também tem um ótimo [documento](https://web.stanford.edu/~mrosenfe/soc_meth_proj3/matrix_OLS_NYU_notes.pdf) sobre regressão linear, muito mais aprofundado do que o tratado aqui.\n",
"O item sobre regressão no capítulo 2 do livro [Introduction to Machine Learning](https://mitpress.mit.edu/books/introduction-machine-learning) mostra bem o dilema entre superajustamento e subajustamento. A universidade de Stanford também tem um ótimo [documento](https://web.stanford.edu/~mrosenfe/soc_meth_proj3/matrix_OLS_NYU_notes.pdf) sobre regressão linear, muito mais aprofundado do que o tratado aqui. \n",
"Se você não entendeu muito bem o modelo de regressão linear eu aconselho procurar vários tutoriais e ver cada um deles até entender. Regressão linear é a pedra fundamental sobre a qual os outros algorítmos de aprendizado de máquina serão construidos. Seja diferindo, seja melhorando o modelo de regressão linear, os algorítmos mais complexos sempre tem alguma forma de comparação com o modelo visto aqui. Segue então uma lista de videos explicando regressão linear: \n",
"https://www.youtube.com/watch?v=D8PNnttuGZk&index=36&list=PLAwxTw4SYaPl0N6-e1GvyLp5-MUMUjOKo \n",
"https://www.youtube.com/watch?v=udJvijJvs1M&list=PLAwxTw4SYaPkQXg8TkVdIvYv4HfLG7SiH&index=195 \n",
"https://www.youtube.com/watch?v=kJvASBvZpw0&list=PLAwxTw4SYaPnVUrK_vL3r9tP6kuwAEzgQ&index=465 \n",
"\n",
"\n",
"<br/>\n",
"3) Para ir além: \n",
Expand Down
2 changes: 1 addition & 1 deletion k_means.py
Original file line number Diff line number Diff line change
Expand Up @@ -59,7 +59,7 @@ def fit(self, data):
for j, i in enumerate(data.values):

# acha a cistância entre a observação i e cada centro
dist = [np.linalg.norm(i-j) for j in self.cluster_centers_]
dist = [np.linalg.norm(i-j) ** 2 for j in self.cluster_centers_]

# classifica a observação i a um centro
clas = dist.index(min(dist))
Expand Down
1 change: 1 addition & 0 deletions knn.py
Original file line number Diff line number Diff line change
Expand Up @@ -68,6 +68,7 @@ def score(self, X_test, y_test):
X = np.array(data.drop(['class'], 1))
y = np.array(data['class'])


# separa em treino e teste
X_train, X_test, y_train, y_test = model_selection.train_test_split(X, y,
test_size=0.2)
Expand Down

0 comments on commit d78761e

Please sign in to comment.