Linea de Tiempo de la IA
Anahi Mexicano
Created on March 2, 2023
Anahi Mexicano Aguilar. 804A
Over 30 million people build interactive content in Genially.
Check out what others have designed:
FIRE FIGHTER
Horizontal infographics
DEMOCRATIC CANDIDATES NOV DEBATE
Horizontal infographics
STEVE JOBS
Horizontal infographics
ONE MINUTE ON THE INTERNET
Horizontal infographics
SITTING BULL
Horizontal infographics
10 SIGNS A CHILD IS BEING BULLIED
Horizontal infographics
BEYONCÉ
Horizontal infographics
Transcript
HISTORIA DE LA IA
Continua...
1950
1930
1940
En 1949, Donald Hebb propuso una teoría del aprendizaje que se conoce como "regla de Hebb". Según esta regla, la fuerza de la conexión entre dos neuronas se fortalece si ambas neuronas se activan simultáneamente. La regla de Hebb se considera una de las primeras teorías del aprendizaje en la neurociencia y ha sido ampliamente utilizada en el desarrollo de algoritmos de aprendizaje automático en la Inteligencia Artificial. En conjunto, estos modelos proporcionaron un marco teórico para el desarrollo de sistemas artificiales que podían aprender y adaptarse a partir de datos de entrada, lo que allanó el camino para el desarrollo de la Inteligencia Artificial moderna.
1960
1970
2000
2010
1990
1980
2020
1961 El simulador de problemas generales (General Problem Solver) fue desarrollado por los investigadores Allen Newell y Herbert A. Simon en 1961. Consistía en un programa de ordenador que intentaba resolver problemas mediante la búsqueda en un espacio de estados. Se convirtió en una herramienta importante para la inteligencia artificial y sentó las bases para el desarrollo de otros programas de solución de problemas basados en la búsqueda, como el famoso algoritmo A*. Este simulador sentó las bases para el desarrollo de otros programas de inteligencia artificial y resolución de problemas basados en la búsqueda. 1963 El Laboratorio de Inteligencia Artificial de Stanford (Stanford Artificial Intelligence Laboratory, SAIL) fue fundado en 1963 por John McCarthy, quien también fue uno de los fundadores del Laboratorio de Inteligencia Artificial del MIT. El objetivo principal del SAIL era investigar y desarrollar tecnologías de inteligencia artificial, incluyendo el procesamiento del lenguaje natural, la visión por computadora, el razonamiento automatizado y el aprendizaje automático. El Laboratorio de Inteligencia Artificial de Stanford se convirtió en un centro importante para la investigación en inteligencia artificial y fue uno de los principales contribuyentes al desarrollo de la disciplina. 1966 El programa Eliza fue desarrollado por Joseph Weizenbaum en el MIT en 1966. Eliza fue uno de los primeros programas de procesamiento del lenguaje natural y su objetivo era simular una conversación terapéutica entre un paciente y un terapeuta. Eliza fue diseñado para imitar el estilo de lenguaje de un terapeuta Rogeriano, que se basa en la empatía y la comprensión empática del paciente. Eliza era capaz de identificar patrones en el lenguaje del usuario y utilizarlos para generar preguntas y respuestas relevantes en una conversación simulada. Por ejemplo, si el usuario mencionaba algo sobre su familia, Eliza podría hacer preguntas sobre la relación del usuario con su familia. 1969 La red neuronal muy simple presentada en un libro en 1969 fue propuesta por el psicólogo y matemático estadounidense Frank Rosenblatt. El libro, titulado "Principios de neurodynamics: perceptrones y la teoría de la organización neuronal", presente El Perceptrón consistía en una capa de neuronas artificiales interconectadas que podían aprender a reconocer patrones mediante el ajuste de los pesos de las conexiones entre ellas. El trabajo de Rosenblatt en redes neuronales y aprendizaje automático fue muy influyente y sentó las bases para muchos otros avances importantes en el campo de la inteligencia artificial.
1950 En su famoso artículo "Computing Machinery and Intelligence" (Maquinaria computacional e inteligencia), publicado en la revista Mind en 1950, Alan Turing define la inteligencia artificial de la siguiente manera: "Consideraremos que la cuestión '¿Pueden las máquinas pensar?' es demasiado ridícula para merecer discusión, pero podemos investigar la cuestión operativamente, es decir, podemos buscar el comportamiento inteligente en una máquina". Es decir, Turing propone que en lugar de preguntarnos si las máquinas pueden realmente pensar como los humanos, deberíamos centrarnos en el comportamiento inteligente que pueden exhibir las máquinas y cómo podemos evaluarlo. 1951 En 1951, Marvin Minsky junto con Dean Edmonds construyeron el SNARC (Stochastic Neural Analog Reinforcement Calculator), Este dispositivo constaba de redes de neuronas artificiales analógicas que se conectaban mediante amplificadores de válvulas. La idea detrás de este dispositivo era simular cómo funcionaba el cerebro humano, utilizando una red de neuronas interconectadas para procesar información. La red neuronal de SNARC podía resolver problemas matemáticos simples, como sumas y restas, utilizando la lógica booleana. Este trabajo allanó el camino para el desarrollo de redes neuronales más sofisticadas y avanzadas que se utilizan hoy en día en una variedad de aplicaciones de inteligencia artificial y aprendizaje automático. 1952 Arthur Samuel construyó el primer programa de aprendizaje automático para jugar ajedrez en el año 1952. El juego consistía en un programa que aprendía a jugar ajedrez mediante la práctica y la retroalimentación, mejorando su juego con cada partida. El programa jugaba contra sí mismo y utilizaba una función de evaluación para determinar el valor de una posición en el tablero y decidir el mejor movimiento a realizar. El programa de ajedrez de Samuel fue un hito importante en la historia de la inteligencia artificial 1956 El término "inteligencia artificial" se introdujo por primera vez en el verano de 1956, en una conferencia de informática que tuvo lugar en el Dartmouth College en Hanover, New Hampshire, Estados Unidos. La conferencia fue organizada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon, y reunió a un grupo de científicos e investigadores en el campo de la inteligencia artificial para discutir el futuro de la investigación en este campo. McCarthy presentó una propuesta para la creación de un programa de investigación en inteligencia artificial, que sentó las bases para el desarrollo de esta disciplina como una rama independiente de la informática y la ciencia en general 1958 John McCarthy inventó el lenguaje de programación de alto nivel LISP en el año 1958. La idea detrás de LISP era crear un lenguaje de programación que fuera adecuado para la inteligencia artificial y que pudiera manejar simbolismo y listas de manera eficiente. Con el objetivo de crear un lenguaje de programación adecuado para la inteligencia artificial y que pudiera manejar simbolismo y listas de manera eficiente. El lenguaje fue innovador en su enfoque en las listas y la introducción de conceptos importantes como la recursión y las funciones lambda.
1943 En 1943, Warren McCulloch y Walter Pitts publicaron un artículo titulado "Una teoría lógica de la actividad nerviosa de los procesos" en el que presentaron un modelo teórico de neuronas artificiales. Este modelo se basaba en la idea de que las neuronas biológicas procesan señales eléctricas de entrada y generan una señal de salida en función de si la señal de entrada supera un umbral determinado. El modelo de McCulloch-Pitts fue uno de los primeros intentos de aplicar principios de la neurociencia al desarrollo de sistemas artificiales. 1949 En 1949, Donald Hebb propuso una teoría del aprendizaje que se conoce como "regla de Hebb". Según esta regla, la fuerza de la conexión entre dos neuronas se fortalece si ambas neuronas se activan simultáneamente. La regla de Hebb se considera una de las primeras teorías del aprendizaje en la neurociencia y ha sido ampliamente utilizada en el desarrollo de algoritmos de aprendizaje automático en la Inteligencia Artificial. En conjunto, estos modelos proporcionaron un marco teórico para el desarrollo de sistemas artificiales que podían aprender y adaptarse a partir de datos de entrada, lo que allanó el camino para el desarrollo de la Inteligencia Artificial moderna.
1930 El concepto que Alan Turing predijo en los años 30 fue el de la "Máquina de Turing", un modelo teórico de un dispositivo que podía manipular información siguiendo un conjunto de reglas programadas. Esta máquina se considera el precursor de la computadora moderna y sentó las bases teóricas para el desarrollo de la Inteligencia Artificial.
1972 Alain Colmerauer es conocido por ser el creador del lenguaje de programación Prolog en 1972. Prolog es un acrónimo de "Programming in Logic" (Programación en Lógica) y es un lenguaje de programación declarativo, lo que significa que se enfoca en "qué" se desea hacer y no en "cómo" se debe hacer. Prolog fue una innovación significativa en la programación porque utilizó la lógica para representar conocimientos y permitió que los programas pudieran hacer inferencias a partir de ese conocimiento de manera automática. 1972 El sistema de diagnóstico de dolor abdominal agudo desarrollado por el médico Dombal en 1972 se considera un precursor de los sistemas de inteligencia artificial aplicados a la medicina. El sistema se basa en un conjunto de reglas explícitas para evaluar los síntomas y signos de un paciente con dolor abdominal agudo y determinar el diagnóstico más probable. se considera relevante en el contexto de la inteligencia artificial porque representa una de las primeras aplicaciones de la lógica y los conocimientos médicos para la toma de decisiones automatizada en la medicina. 1976 El sistema experto para enfermedades infecciosas MYCIN fue desarrollado en 1976 por Edward Shortliffe y su equipo en la Universidad de Stanford. Este sistema fue capaz de diagnosticar con precisión enfermedades infecciosas y proporcionar recomendaciones de tratamiento basadas en el conocimiento médico y las evidencias disponibles en ese momento. El desarrollo de MYCIN sentó las bases para la aplicación de la inteligencia artificial en la medicina, y su éxito inspiró a muchos investigadores a explorar cómo la IA podría utilizarse para mejorar la atención médica en diferentes áreas.
1981 El proyecto de quinta generación se refiere a un programa de investigación y desarrollo iniciado en Japón en 1981 con el objetivo de crear una nueva generación de computadoras que pudieran manejar el procesamiento del lenguaje natural y la inteligencia artificial. El proyecto de quinta generación fue un gran gasto en 1981 porque era una tarea ambiciosa e innovadora que requería una cantidad significativa de recursos y financiamiento, involucraba a varias universidades y empresas líderes en tecnología, y requería un enfoque interdisciplinario. 1982 La R1 es una familia de microprocesadores diseñada por la compañía Intel en la década de 1980. La R1 fue lanzada en 1982 como parte del proyecto "P3" de Intel, que tenía como objetivo desarrollar un nuevo tipo de microprocesador que fuera eficiente en términos de energía y adecuado para su uso en dispositivos portátiles y otros sistemas de baja potencia. a R1 también utilizaba un conjunto de instrucciones altamente optimizado para ahorrar energía y aumentar la eficiencia del procesador. la R1 fue un microprocesador diseñado por Intel en 1982 como parte del proyecto "P3", y se destacó por ser uno de los primeros microprocesadores de 16 bits que se podían utilizar en sistemas de baja potencia. 1986 El renacimiento de las redes neuronales en 1986 se debió principalmente al descubrimiento del algoritmo de retropropagación de errores (backpropagation) para entrenar redes neuronales profundas. La relación de las redes neuronales con la inteligencia artificial radica en su capacidad para aprender de manera autónoma y adaptarse a nuevas situaciones. Las redes neuronales se basan en el funcionamiento del cerebro humano y su capacidad para procesar información de manera eficiente y efectiva. Al utilizar algoritmos de aprendizaje automático, las redes neuronales.
1992 El programa TD-Gammon fue un programa de inteligencia artificial desarrollado en la década de 1990 por el investigador Gerald Tesauro. TD-Gammon fue diseñado para jugar al juego de mesa Backgammon utilizando técnicas de aprendizaje por refuerzo. el programa TD-Gammon en 1992 consistía en un programa de inteligencia artificial diseñado para jugar al Backgammon utilizando técnicas de aprendizaje por refuerzo y un tesauro de posiciones y jugadas conocidas para mejorar su juego con el tiempo. 1995 Las máquinas de vectores de soporte (SVM, por sus siglas en inglés) desarrolladas por Vladimir Vapnik en 1995 son muy importantes hoy en día por varias razones: Las SVM son muy efectivas en la clasificación y predicción de datos, especialmente en tareas de aprendizaje supervisado. Esto se debe a su capacidad para generalizar bien en datos no vistos, lo que las hace útiles en una amplia variedad de aplicaciones de aprendizaje automático. las máquinas de vectores de soporte son importantes hoy en día porque son altamente efectivas en la clasificación y predicción de datos, flexibles en la elección de la función kernel, interpretables y eficientes computacionalmente.
2003 En el 2003, se lograron algunos avances significativos en estas áreas que merecen ser mencionados: Victoria del robot humanoide ASIMO de Honda en una carrera: En 2003, el robot humanoide ASIMO de Honda demostró su capacidad para correr a una velocidad de 6 km/h en una carrera contra un atleta olímpico, se hizo progreso en el desarrollo de drones autónomos capaces de realizar misiones sin la intervención humana. La IA y la robótica han sido impresionantes en el 2003 y en años posteriores debido a los avances en el desarrollo de robots humanoides más avanzados, programas de IA capaces de competir con humanos en juegos de trivia, y drones autónomos capaces de operar en entornos peligrosos sin la intervención humana. 2006 Avances en sensores y tecnología de procesamiento: En 2006, los sensores y la tecnología de procesamiento se habían vuelto lo suficientemente sofisticados como para permitir la creación de robots más avanzados. Los robots de servicios necesitan sensores para poder detectar el entorno y reaccionar en consecuencia, y la tecnología de procesamiento necesaria para procesar los datos de los sensores y tomar decisiones en tiempo real se había vuelto más accesible. La robótica de servicios se convirtió en una aplicación importante para la inteligencia artificial en 2006 debido a una combinación de avances en sensores, tecnología de procesamiento, movilidad de robots, demanda de robots de servicios y capacidad de aprendizaje de la IA. Estos avances permitieron a los robots de servicios desempeñar un papel cada vez más importante en la atención médica, el hogar y otras áreas.
2020 La inteligencia artificial (IA) ha tenido un gran impacto en el año 2020 en una amplia variedad de áreas, como la salud, la educación, el trabajo remoto, la seguridad, la investigación científica, entre otras. La IA se ha utilizado para desarrollar herramientas de aprendizaje en línea y personalizar la educación para cada estudiante. Ha tenido un gran impacto en el 2020, especialmente en la lucha contra la pandemia y en la mejora de la eficiencia en el trabajo y la educación. Se espera que la IA continúe desempeñando un papel importante en el futuro en una amplia variedad de áreas.
2010 En el 2010, los robots autómatas estaban siendo utilizados en una variedad de aplicaciones y tareas, aunque su uso no era tan amplio como en años posteriores. Los robots autómatas en el 2010 se estaban utilizando en una variedad de tareas en diferentes sectores, aunque su uso era menos común que en años posteriores. Con el tiempo, el uso de robots autómatas se ha vuelto más popular y se ha expandido a nuevas áreas y aplicaciones. 2011 El programa Jeopardy! en 2011 se refería al evento histórico donde IBM Watson, una computadora con inteligencia artificial desarrollada por IBM, compitió contra dos de los mejores concursantes humanos del programa, Ken Jennings y Brad Rutter. El programa en sí consistió en los concursantes respondiendo preguntas en forma de respuestas y ganando dinero por respuestas correctas. El objetivo era acumular la mayor cantidad de dinero al final del juego para ser declarado el ganador. Watson sorprendió al mundo al derrotar a los dos concursantes humanos con una gran ventaja, demostrando la capacidad de la inteligencia artificial para procesar información y responder preguntas en un formato de juego de televisión popular.
La IA es una tecnología en constante evolución y desarrollo, y es probable que siga avanzando y mejorando en el futuro previsible, y siga siendo una herramienta valiosa y poderosa en una variada.
Historia Edu Colores
Lorem ipsum dolor sit amet, consectetur adipiscing elit.
20XX
20XX
20XX
20XX
20XX
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Donec blandit tortor orci. Ut imperdiet bibendum tortor, id porttitor leo. Proin ac enim semper, fermentum leo in, convallis risus.
Lorem ipsum dolor sit
Título aquí
Lorem ipsum dolor sit
Título aquí
Lorem ipsum dolor sit
Título aquí
Lorem ipsum dolor sit
Título aquí
Lorem ipsum dolor sit
Título aquí
Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet dolore magna aliquam erat volutpat.
Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet dolore magna aliquam erat volutpat.
Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet dolore magna aliquam erat volutpat.
Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet dolore magna aliquam erat volutpat.
Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet dolore magna aliquam erat volutpat.