~
/
thoughts
/
cross entropy
↑↓
pour naviguer
↵
pour ouvrir
⟶
pour sélectionner
⌘ ⌥ ↵
pour ouvrir dans un panneau
esc
pour rejeter
⌘ '
raccourcis clavier
Search
cross entropy
Étiquette
ml
probability
publié à
14 déc. 2024
modifié à
14 déc. 2024
durée
0 min de lecture (0 words)
source
llms.txt
Vous pourriez aimer ce qui suit
posts.
pdfs.
emergent behaviour
Complexity
being.
group theory
DeepSeek R1
Liens retour
Logistic regression
:smile: fun fact: actually better for classification instead of regression problems Assume there is a plane in \mathbb{R}^d parameterized by W \begin{aligned} P(Y = 1 \mid x, W) &= \phi (W^T x) \\ P(Y= 0 \mid x, W) &= 1 - \phi (W^T x) \\[12pt] &\because \phi (a) = \frac{1}{1+e^{-a}} \end...