vídeo
Buscar este blog
miércoles, 29 de mayo de 2019
S8. Actividad 1. Integración y redacción del informe final
S8. Actividad 1. Integración y redacción del informe final
domingo, 26 de mayo de 2019
domingo, 19 de mayo de 2019
sábado, 18 de mayo de 2019
sábado, 11 de mayo de 2019
S5. Actividad 2. Análisis y abstracción de información
S5. Actividad 2. Análisis y abstracción de información
MARCO TEÓRICO
Acerca de las redes neuronales.
El hombre se ha caracterizado siempre por su búsqueda
constante de nuevas vías para mejorar sus condiciones de vida. Estos esfuerzos
le han sel trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los proervido para reducir gresos obtenidos han permitido dirigir
estos esfuerzos a otros campos, como por ejemplo, a la construcción de máquinas
calculadoras que ayuden a resolver de forma automática y rápida determinadas
operaciones que resultan tediosas cuando se realizan a mano.
Uno de los primeros en acometer esta empresa fue Charles
Babbage, quien trató infructuosamente de construir una máquina capaz de
resolver problemas matemáticos. Posteriormente otros tantos intentaron
construir máquinas similares, pero no fue hasta la Segunda Guerra Mundial,
cuando ya se disponía de instrumentos electrónicos, que se empezaron a recoger
los primeros frutos. En 1946 se construyó la primera computadora electrónica,
ENIAC. Desde entonces los desarrollos en este campo han tenido un auge espectacular.
Estas máquinas permiten implementar fácilmente algoritmos
para resolver multitud de problemas que antes resultaban engorrosos de
resolver. Sin embargo, se observa una limitación importante: ¿qué ocurre cuando
el problema que se quiere resolver no admite un tratamiento algorítmico, como
es el caso, por ejemplo, de la clasificación de objetos por rasgos comunes?
Este ejemplo demuestra que la construcción de nuevas máquinas más versátiles
requiere un enfoque del problema desde otro punto de vista. Los desarrollos
actuales de los científicos se dirigen al estudio de las capacidades humanas
como una fuente de nuevas ideas para el diseño de las nuevas máquinas. Así, la
inteligencia artificial es un intento por descubrir y describir aspectos de la
inteligencia humana que pueden ser simulados mediante máquinas. Esta disciplina
se ha desarrollado fuertemente en los últimos años teniendo aplicación en
algunos campos como visión artificial, demostración de teoremas, procesamiento
de información expresada mediante lenguajes humanos... etc.
Las redes neuronales son más que otra forma de emular
ciertas características propias de los humanos, como la capacidad de memorizar
y de asociar hechos. Si se examinan con atención aquellos problemas que no
pueden expresarse a través de un algoritmo, se observará que todos ellos tienen
una característica en común: la experiencia. El hombre es capaz de resolver
estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que
una forma de aproximarse al problema consista en la construcción de sistemas
que sean capaces de reproducir esta característica humana. En definitiva, las
redes neuronales no son más que un modelo artificial y simplificado del cerebro
humano, que es el ejemplo más perfecto del que disponemos para un sistema que
es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal
es “un nuevo sistema para el tratamiento de la información, cuya unidad básica
de procesamiento está inspirada en la célula fundamental del sistema nervioso humano:
la neurona”.
Todos los procesos del cuerpo humano se relacionan en
alguna u otra forma con la (in)actividad de estas neuronas. Las mismas son un
componente relativamente simple del ser humano, pero cuando millares de ellas
se conectan en forma conjunta se hacen muy poderosas.
Lo que básicamente ocurre en una neurona biológica es lo
siguiente: la neurona es estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un
cierto umbral, la neurona se dispara o activa, pasando una señal hacia el axon. Posteriores investigaciones
condujeron al descubrimiento de que estos procesos son el resultado de eventos
electroquímicos.
Como ya se sabe, el pensamiento tiene lugar en el cerebro,
que consta de billones de neuronas interconectadas. Así, el secreto de la
“inteligencia” -sin importar como se defina- se sitúa dentro de estas neuronas
interconectadas y de su interacción. También, es bien conocido que los humanos
son capaces de aprender. Aprendizaje significa que aquellos problemas que
inicialmente no pueden resolverse, pueden ser resueltos después de obtener más
información acerca del problema. Por lo tanto, las Redes Neuronales...
Consisten de unidades de
procesamiento que intercambian datos o información.
Se utilizan para
reconocer patrones, incluyendo imágenes, manuscritos y secuencias de tiempo
(por ejemplo: tendencias financieras).
Tienen
capacidad de aprender y mejorar su funcionamiento.
Una primera clasificación de los modelos de redes
neuronales podría ser, atendiendo a su similitud con la realidad biológica:
1)
El modelo de tipo biológico. Este comprende las
redes que tratan de simular los sistemas neuronales biológicos, así como las
funciones auditivas o algunas funciones básicas de la visión.
2)
El modelo dirigido a aplicación. Este modelo no
tiene por qué guardar similitud con los sistemas biológicos. Su arquitectura
está fuertemente ligada a las necesidades de las aplicaciones para la que es
diseñada.
Reseña
Histórica
Historia de las
redes neuronales.
1936
- Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el
mundo de la computación. Sin embargo, los primeros teóricos que concibieron los
fundamentos de la computación neuronal fueron Warren McCulloch, un
neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una
teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la
Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5:
115-133). Ellos modelaron una red neuronal simple mediante circuitos
eléctricos.
1949
- Donald Hebb. Fue el primero en explicar
los procesos del aprendizaje (que es el elemento básico de la inteligencia
humana) desde un punto de vista psicológico, desarrollando una regla de como el
aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de las
funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue
que el aprendizaje ocurría cuando ciertos cambios en una neurona eran
activados. También intentó encontrar semejanzas entre el aprendizaje y la
actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las
Redes Neuronales.
1950
- Karl Lashley. En sus series de ensayos, encontró que la información no era
almacenada en forma centralizada en el cerebro sino que era distribuida encima
de él.
1956
- Congreso de Dartmouth. Este Congreso
frecuentemente se menciona para indicar el nacimiento de la inteligencia
artificial.
1957
- Frank Rosenblatt. Comenzó el desarrollo
del Perceptron. Esta es la red neuronal más antigua; utilizándose hoy en día
para aplicación como identificador de patrones. Este modelo era capaz de
generalizar, es decir, después de haber aprendido una serie de patrones podía
reconocer otros similares, aunque no se le hubiesen presentado en el
entrenamiento. Sin embargo, tenía una serie de limitaciones, por ejemplo, su
incapacidad para resolver el problema de la función OR-exclusiva y, en general,
era incapaz de clasificar clases no separables linealmente.
1959
- Frank Rosenblatt: Principios de
Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el
aprendizaje del Perceptron convergía hacia un estado finito (Teorema de
Convergencia del Perceptron).
1960
- Bernard Widroff/Marcian Hoff.
Desarrollaron el modelo Adaline (ADAptative LINear Elements). Esta fue la
primera red neuronal aplicada a un problema real (filtros adaptativos para
eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente
durante varias décadas.
1961
- Karl Steinbeck: Die Lernmatrix. Red
neuronal para simples realizaciones técnicas (memoria asociativa).
1969 - Marvin Minsky/Seymour Papert. En
este año casi se produjo la “muerte abrupta” de las Redes Neuronales; ya que
Minsky y Papert probaron (matemáticamente)
que el Perceptrons no era capaz de resolver problemas relativamente
fáciles, tales como el aprendizaje de una función no-lineal. Esto demostró que
el Perceptron era muy débil, dado que las funciones no-lineales son
extensamente empleadas en computación y en los problemas del mundo real.
1974
- Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás
(backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
1977
- Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
demás previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.
1985
- John Hopfield. Provocó el renacimiento de
las redes neuronales con su libro: “Computación neuronal de decisiones en
problemas de optimización.”
1986
- David Rumelhart/G. Hinton. Redescubrieron
el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).
Definiciones de
una red neuronal.
Existen numerosas formas de definir a las redes neuronales;
desde las definiciones cortas y genéricas hasta las que intentan explicar más
detalladamente qué son las redes neuronales. Por ejemplo:
1) Una nueva
forma de computación, inspirada en modelos biológicos.
2)
Un modelo matemático compuesto por un gran
número de elementos procesales organizados en niveles.
3)
...un sistema de computación compuesto por un
gran número de elementos simples, elementos de procesos muy interconectados,
los cuales procesan información por medio de su estado dinámico como respuesta
a entradas externas.
4)
Redes neuronales artificiales son redes
interconectadas masivamente en paralelo de elementos simples (usualmente
adaptativos) y con organización jerárquica, las cuales intentan interactuar con
los objetos del mundo real del mismo modo que lo hace el sistema nervioso
biológico.
A partir de 1986, el panorama fue
alentador con respecto a las investigaciones y el desarrollo de las
redes neuronales. En la actualidad,
son numerosos los
trabajos que se
realizan y publican
cada año, las
aplicaciones nuevas que
surgen (sobretodo en
el área de
control) y las
empresas que lanzan al
mercado productos nuevos,
tanto hardware como
software (sobre todo para
simulación).
Debido a su constitución y a sus fundamentos, las redes
neuronales artificiales presentan un gran número de características semejantes
a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de
generalizar de casos anteriores a nuevos casos, de abstraer características
esenciales a partir de entradas que representan información irrelevante, etc.
Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnología se esté
aplicando en múltiples áreas. Entre las ventajas se incluyen:
Aprendizaje Adaptativo.
Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial.
Auto-organización. Una
red neuronal puede crear su propia organización o representación de la
información que recibe mediante una etapa de aprendizaje.
Tolerancia a fallos. La
destrucción parcial de una red conduce a una degradación de su estructura; sin
embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un
gran daño.
Operación en tiempo
real. Los cómputos neuronales pueden ser realizados en paralelo; para esto se
diseñan y fabrican máquinas con hardware especial para obtener esta capacidad.
Fácil inserción dentro
de la tecnología existente. Se pueden obtener chips especializados para redes
neuronales que mejoran su capacidad en ciertas tareas. Ello facilitará la
integración modular en los sistemas existentes.
Matich,
D. J. (Marzo de 2011). decsai.ugr.es. Obtenido de ftp://decsai.ugr.es/pub/usuarios/castro/Material-Redes-Neuronales/Libros/matich-redesneuronales.pdf.
S5. ACTIVIDAD 1. SELECCIÓN Y RECOPILACIÓN DE INFORMACIÓN
S5. ACTIVIDAD 1. SELECCIÓN Y RECOPILACIÓN DE INFORMACIÓN
google. (2019). https://scholar.google.es.
Obtenido de Google academico:
https://scholar.google.es/scholar?as_ylo=2019&q=redes+neuronales&hl=es&as_sdt=0,5
Barcelona, U. A. (2018). www.coursera.org.
Obtenido de
https://www.coursera.org/lecture/big-data-procesamiento-analisis/redes-neuronales-51BHc
Matich, D. J. (Marzo de 2011). decsai.ugr.es.
Obtenido de
ftp://decsai.ugr.es/pub/usuarios/castro/Material-Redes-Neuronales/Libros/matich-redesneuronales.pdf.
Muncharaz, J. O. (2018). www.edx.org. Obtenido de
https://www.edx.org/bio/javier-oliver-muncharaz
viernes, 10 de mayo de 2019
martes, 7 de mayo de 2019
unidad 2 act.1
ESTUDIO EN ESCARLATA
Esta novela Policíaca me parece una gran aportación a la ciencia de investigación deductiva ya que Sherlock es un personaje muy completo por lo de ser muy compleja su forma de ver el mundo, su amigo Watson quien lograr crear una excelente dupla donde juega el papel del interrogador, en este trabajo logramos visualizar los tipos y métodos de investigación.
Suscribirse a:
Comentarios (Atom)







