\documentclass{beamer}
%
% Choose how your presentation looks.
%
% For more themes, color themes and font themes, see:
% http://deic.uab.es/~iblanes/beamer_gallery/index_by_theme.html
%
\mode<presentation>
{
\usetheme{default} % or try Darmstadt, Madrid, Warsaw, ...
\usecolortheme{default} % or try albatross, beaver, crane, ...
\usefonttheme{default} % or try serif, structurebold, ...
\setbeamertemplate{navigation symbols}{}
\setbeamertemplate{caption}[numbered]
}
\usepackage[english]{babel}
\usepackage[utf8x]{inputenc}
\title[Your Short Title]{MÉTODOS ESTADÍSTICOS DE APRENDIZAJE}
\author{ERIKA TANGER Y WILMAN VALDES}
\institute{Universidad Antonio Nariño}
\date{15 de mayo del 2014}
\begin{document}
\begin{frame}
\titlepage
\end{frame}
% Uncomment these lines for an automatically generated outline.
%\begin{frame}{Outline}
% \tableofcontents
%\end{frame}
\section{INTRODUCCIÓN}
\begin{frame}{INTRODUCCIÓN}
\begin{itemize}
\item En este capítulo aprenderemos como los agentes pueden tratar con la incertidumbre utilizando métodos que hagan uso de las probabilidades y de la teoria de la decisión pero primero deben aprender las teorias probabilisticas sobre el mundo apartir de la experiencia.
\end{itemize}
\vskip 2cm
\end{frame}
\section{Some \LaTeX{} Examples}
\subsection{Tables and Figures}
\begin{frame}{Aprendizaje Estadistico}
\begin{itemize}
\item En el aprendizaje estadistico las variable claves son los datos y las hipótesis.
\item Los datos son evidencias, es decir instancias de todas o algunas de las variables aleatorias.
\item Las hipótesis son teorias proabilisticas.
\end{itemize}
\end{frame}
\section{Razonamiento Bayesiano}
\begin{frame}{Razonamiento Bayesiano}
\begin{itemize}
\item Nos da un enfoque probabilístico de la inferencia.
\item Está basado en asumir que las incógnitas de interés siguen distribuciones probabilísticas.
\item Se puede conseguir una solución óptima por medio de estas distribuciones y datos observados.
\item Nos da la posibilidad de realizar una ponderación de la posibilidad de ocurrencia de una hipótesis de manera cuantitativa.
\end{itemize}
\vskip 1cm
\end{frame}
\section{Importancia del Razonamiento Bayesiano}
\begin{frame}{Importancia del Razonamiento Bayesiano}
\begin{itemize}
\item Los algoritmos de aprendizaje bayesiano pueden calcular probabilidades explícitas para cada hipótesis.
\item También nos proporcionan un marco para estudiar otros algoritmos de aprendizaje.
\end{itemize}
\vskip 1cm
\end{frame}
\section{CARACTERISTICAS}
\begin{frame}{Primera Caracteristica}
\begin{itemize}
\item Cada ejemplo de entrenamiento afecta a la probabilidad de las hipótesis. Esto es más efectivo que descartar directamente las hipótesis incompatibles.
\item Se puede incluir conocimiento a priori: probabilidad de cada hipótesis; y la distribución de probabilidades de los ejemplos.
\item Es sencillo asociar un porcentaje de confianza a las predicciones, y combinar predicciones en base a su confianza
\end{itemize}
\vskip 1cm
\end{frame}
\begin{frame}{Segunda Caracteristica}
\begin{itemize}
\item Una nueva instancia es clasificada como función de la predicción de múltiples hipótesis, ponderadas por sus probabilidades.
\item Incluso en algunos casos en los que el uso de estos métodos se ha mostrado imposible, pueden darnos una aproximación de la solución óptima.
\end{itemize}
\vskip 1cm
\end{frame}
\section{Some \LaTeX{} Examples}
\subsection{Teorema de Bayes}
\begin{frame}{Teorema de Bayes}
\begin{itemize}
\item P(h) es la probabilidad a priori de la hipótesis h.
\item P(D) es la probabilidad de observar el conjunto de entrenamiento D.
\item P(D|h) es la probabilidad de observar el conjunto de entrenamiento D en un universo donde se verifica la hipótesis h.
\end{itemize}
\end{frame}
\subsection{Mathematics}
\begin{frame}{Readable Mathematics}
Let $X_1, X_2, \ldots, X_n$ be a sequence of independent and identically distributed random variables with $\text{E}[X_i] = \mu$ and $\text{Var}[X_i] = \sigma^2 < \infty$, and let
$$S_n = \frac{X_1 + X_2 + \cdots + X_n}{n}
= \frac{1}{n}\sum_{i}^{n} X_i$$
denote their mean. Then as $n$ approaches infinity, the random variables $\sqrt{n}(S_n - \mu)$ converge in distribution to a normal $\mathcal{N}(0, \sigma^2)$.
\end{frame}
\end{document}