Mozart compuso 229 obras, según el catálogo Köchel.
La primera obra fue el Andante en do mayor, KV 1a
El Andante para teclado en do mayor, K. 1a, es una breve pieza musical (30 segundos aproximadamente) compuesta por Wolfgang Amadeus Mozart en Salzburgo entre los meses de enero y marzo de 1761, cuando tan sólo contaba con cinco años de edad.
Esta pieza de música fue probablemente la primera composición de Mozart, y se encuentra recogida en el conocido como Nannerl Notenbuch, un pequeño cuaderno que Leopold Mozart, el padre de Wolfgang, empleaba para enseñar música a sus hijos. La pieza fue puesta por escrito por Leopold, en tanto que el pequeño Wolfgang no sabía escribir música por entonces, dada su corta edad.
Un transistor es un dispositivo que regula el flujo de corriente o de tensión actuando como un interruptor o amplificador para señales electrónicas.
Un transistor es un componente que tiene, básicamente, dos funciones:
1. Deja pasar o corta señales eléctricas a partir de una PEQUEÑA señal de mando. Como Interruptor, abre o cierra para cortar o dejar pasar la corriente por el circuito.
2. Funciona como un elemento Amplificador de señales. Le llega una señal pequeña que se convierte en una grande.
Resistencia de plomo con película de óxido de metal con excelente estabilidad a largo plazo, alta capacidad de sobrecarga y sobretensión, buen coeficiente de temperatura controlada para telecomunicación y médico.
Características
Excelente estabilidad a largo plazo.
Alta capacidad de sobrecarga / sobrecarga.
Amplio rango de resistencia: 0.1Ω ~ 22MΩ.
Coeficiente de temperatura controlada.
Tolerancia estándar de resistencia: ± 5%, ± 2% y 1%
Estabilidad eléctrica y mecánica y alta confiabilidad.
Se utilizan en aplicaciones militares (muy exigentes) o donde se requiera gran fiabilidad, porque la capa de óxido es muy resistente a daños mecánicos y a la corrosión en ambientes húmedos.
Resistencia de precisión con película metálica de plomo
Excelente estabilidad y tolerancia ajustada, TCR (Temperature Coefficient of Resistance) extremadamente bajo, alta potencia disponible para equipos de telecomunicaciones y médicos.
Características:
Excelente estabilidad general.
Tolerancia muy ajustada hasta ± 0.05%.
TCR extremadamente bajo hasta ± 5 PPM / ° C.
Alta potencia nominal de hasta 3 vatios.
Excelente contacto óhmico.
Este tipo de resistencia es el que mayoritariamente se fabrica hoy día, con unas características de ruido y estabilidad mejoradas con respecto a todas las anteriores. Tienen un coeficiente de temperatura muy pequeño, del orden de 50 ppm/°C (partes por millón y grado Centígrado). También soportan mejor el paso del tiempo, permaneciendo su valor en ohmios durante un mayor período de tiempo. Se fabrican este tipo de resistencias de hasta 2 watios de potencia, y con tolerancias del 1% como tipo estándar.
Un condensador eléctrico (también conocido como capacitor) es un dispositivo pasivo, utilizado en electricidad y electrónica, capaz de almacenar energía sustentando un campo eléctrico.
Está formado por un par de superficies conductoras, generalmente en forma de láminas o placas, en situación de influencia total (esto es, que todas las líneas de campo eléctrico que parten de una van a parar a la otra) separadas por un material dieléctrico o por la permitividad eléctrica del vacío.
Las placas, sometidas a una diferencia de potencial, adquieren una determinada carga eléctrica, positiva en una de ellas y negativa en la otra, siendo nula la variación de carga total.
Aunque desde el punto de vista físico un condensador no almacena carga ni corriente eléctrica, sino simplemente energía mecánica latente, al ser introducido en un circuito, se comporta en la práctica como un elemento "capaz" de almacenar la energía eléctrica que recibe durante el periodo de carga, la misma energía que cede después durante el periodo de descarga
Los Resistores de carbón son los más baratos, entre 0,20 y 0,3 € c/u.
El tipo mas comúnmente usado en electrónica. Se fabrican en diferentes tamaños con límites de disipación de potencia, normalmente desde 1 vatio hacia abajo hasta 1/8 vatio. Los valores de resistencias y tolerancias se pueden determinar con el código de colores estándar de resistencias.
Este tipo es muy habitual hoy día, y es utilizado para valores de hasta 2 watios. Se utiliza un tubo cerámico como sustrato sobre el que se deposita una película de carbón tal como se aprecia en la figura.
Uno de los componentes de los circuitos electrónico son los Resistores.
Las resistencias son dispositivos que se oponen a la corriente eléctrica, provocando una caída de la tensión (V) y a una disminución de la intensidad de corriente (I).
Son resistencias de dos tipos: fijos y variables.
Los Resistores fijos tienen un valor determinado que no varía.
Los símbolos gráficos del Resistor fijo son:
Su valor viene dado por un código de colores.
La primera línea indica la primera cifra del valor del Resistor, la segunda línea la segunda cifra.
La tercera línea indica el multiplicador de base 10 y exponente entero.
La última línea indica la Tolerancia en términos porcentuales.
Los resistores fijos están hechos de diferentes materiales:
Película de carbón, película metálica, óxido metálico y de alambre
Los elementos semiconductores que aparecen dispuestos en la Tabla Periódica constituyen la materia prima principal, en especial el Silicio (Si), para fabricar diodos detectores y rectificadores de corriente, transistores, circuitos integrados y microprocesadores. Los átomos de los elementos semiconductores pueden poseer dos, tres, cuatro o cinco electrones en su última órbita, de acuerdo con el elemento específico al que pertenecen. No obstante, los elementos más utilizados por la industria electrónica, como el Silicio (Si) y el Germanio (Ge), poseen solamente cuatro electrones en su última órbita. En este caso, el equilibrio eléctrico que proporciona la estructura molecular cristalina característica de esos átomos en estado puro no les permite ceder, ni captar electrones.
Normalmente los átomos de los elementos semiconductores se unen formando enlaces covalentes y no permiten que la corriente eléctrica fluya a través de sus cuerpos cuando se les aplica una diferencia de potencial o corriente eléctrica. En esas condiciones, al no presentar conductividad eléctrica alguna, se comportan de forma similar a un material aislante.
La conductividad de un elemento semiconductor se puede variar aplicando uno de los siguientes métodos:
Elevación de su temperatura Introducción de impurezas (dopaje) dentro de su estructura cristalina Incrementando la iluminación.
En dependencia de cómo varíen los factores de los puntos más arriba expuestos, los materiales semiconductores se comportarán como conductores o como aislantes.
La diferencia entre los circuitos eléctricos y electrónicos.
COMPONENTES
Eléctrico: además del generador o generadores, los circuitos eléctricos contienen componentes pasivos y sistemas de control manual como interruptores y pulsadores.
Electrónico: los circuitos electrónicos contienen elementos activos como los semiconductores y en muchas ocasiones incluyen sistemas de control automático
FINALIDAD
Eléctrico: aprovechar la energía eléctrica como fuente para transformarla en otras formas de energía. En relación a ésto nos interesa la potencia eléctrica: la cantidad de energía por unidad de tiempo que podemos utilizar.
Electrónico: están diseñados para que las señales eléctricas transporten información, ya sea mediante señales analógicas o digitales. Puede consistir en voz o música como en un receptor de radio, en una imagen en una pantalla de televisión, o en números u otros datos en un ordenador.
TIPO DE CORRIENTE:
Eléctrico: trabajan con corriente alterna y continua. La intensidad puede llegar a ser de varios amperios y el rango de voltaje es amplio.
Electrónico: trabajan generalmente con corriente continua. Funcionan con unos pocos voltios y la intensidad de corriente suele ser del orden de los miliamperios.
CIRCUITOS ELECTRÓNICOS
La RAE (Real Academia Española) define la Electrónica como el "Estudio y aplicación del comportamiento de los electrones en diversos medios, como el vacío, los gases y los semiconductores, sometidos a la acción de campos eléctricos y magnéticos".
La electrónica ha permitido la miniaturización de los aparatos, la posibilidad de automatización y programaciónde procesos y un gran desarrollo de las tecnologías de la información y la comunicación.
BlueGriffon es un editor de páginas web mayormente libre y de código abierto pero con componentes opcionales privativos y comerciales.
Se puede bajar gratuitamente y está disponible para Mac OS X, Windows y Linux y está traducido a 17 idiomas.
BlueGriffon cumple con los estándares web W3C. Puede crear y editar páginas conforme a HTML 4, XHTML 1.0, HTML 5 y XHTML 5. Es compatible con CSS 2.1 y todas las partes de CSS 3 ya aplicadas por Gecko. BlueGriffon también incluye SVG-edit, un XUL editor basado en SVG que se distribuyó originalmente como una extensión para Firefox y se adaptó a BlueGriffon.
La historia del lenguaje de programación Python se remonta hacia finales de los 80s principio de los 90s y su implementación comenzó en diciembre de 1989 cuando en Navidad Guido Van Rossum que trabajaba en el (CWI) (un centro de investigación holandés de carácter oficial que, entre otras cosas, actualmente alberga la oficina central del W3C) decidió empezar el proyecto como un pasatiempo dándole continuidad al lenguaje de programación ABC del que había formado parte del equipo de desarrollo en el CWI,3 dicho lenguaje se enfocaba en ser fácil de usar y aprender manteniendo potencia en su desempeño pero el hardware disponible en la época de su creación hacía difícil su uso y el proyecto no trascendió como se esperaba.
Van Rossum es por tanto el autor principal de Python y continúa ejerciendo un rol central decidiendo la dirección del lenguaje, en la comunidad de Python se le conoce como Benevolente Dictador Vitalicio (en inglés: Benevolent Dictator for Life, BDFL).
El nombre "Python" viene dado por la afición de Van Rossum al grupo Monty Python.
Las hojas de estilos aparecieron poco después que el lenguaje de etiquetas SGML, alrededor del año 1970. Desde la creación de SGML, se observó la necesidad de definir un mecanismo que permitiera aplicar de forma consistente diferentes estilos a los documentos electrónicos.
El gran impulso de los lenguajes de hojas de estilos se produjo con el boom de Internet y el crecimiento exponencial del lenguaje HTML para la creación de documentos electrónicos. La guerra de navegadores y la falta de un estándar para la definición de los estilos dificultaban la creación de documentos con la misma apariencia en diferentes navegadores.
El organismo W3C (World Wide Web Consortium), encargado de crear todos los estándares relacionados con la web, propuso la creación de un lenguaje de hojas de estilos específico para el lenguaje HTML y se presentaron nueve propuestas. Las dos propuestas que se tuvieron en cuenta fueron la CHSS (Cascading HTML Style Sheets) y la SSP (Stream-based Style Sheet Proposal).
La propuesta CHSS fue realizada por Håkon Wium Lie y SSP fue propuesto por Bert Bos. Entre finales de 1994 y 1995 Lie y Bos se unieron para definir un nuevo lenguaje que tomaba lo mejor de cada propuesta y lo llamaron CSS (Cascading Style Sheets).
En 1995, el W3C decidió apostar por el desarrollo y estandarización de CSS y lo añadió a su grupo de trabajo de HTML. A finales de 1996, el W3C publicó la primera recomendación oficial, conocida como "CSS nivel 1".
A principios de 1997, el W3C decide separar los trabajos del grupo de HTML en tres secciones: el grupo de trabajo de HTML, el grupo de trabajo de DOM y el grupo de trabajo de CSS.
El 12 de Mayo de 1998, el grupo de trabajo de CSS publica su segunda recomendación oficial, conocida como "CSS nivel 2". La versión de CSS que utilizan todos los navegadores de hoy en día es CSS 2.1, una revisión de CSS 2 que aún se está elaborando (la última actualización es del 8 de septiembre de 2009). Al mismo tiempo, la siguiente recomendación de CSS, conocida como "CSS nivel 3", continúa en desarrollo desde 1998 y hasta el momento sólo se han publicado borradores.
La adopción de CSS por parte de los navegadores ha requerido un largo periodo de tiempo. El mismo año que se publicó CSS 1, Microsoft lanzaba su navegador Internet Explorer 3.0, que disponía de un soporte bastante reducido de CSS. El primer navegador con soporte completo de CSS 1 fue la versión para Mac de Internet Explorer 5, que se publicó en el año 2000. Por el momento, ningún navegador tiene soporte completo de CSS 2.1.
El origen de HTML se remonta a 1980, cuando el físico Tim Berners-Lee, trabajador del CERN (Organización Europea para la Investigación Nuclear) propuso un nuevo sistema de "hipertexto" para compartir documentos.
Después de unir sus fuerzas con el ingeniero de sistemas Robert Cailliau, presentaron la propuesta ganadora llamada WorldWideWeb (W3).
El primer documento formal con la descripción de HTML se publicó en 1991 bajo el nombre HTML Tags (Etiquetas HTML) y todavía hoy puede ser consultado online a modo de reliquia informática.
La primera propuesta oficial para convertir HTML en un estándar se realizó en 1993 por parte del organismo IETF (Internet Engineering Task Force). Aunque se consiguieron avances significativos (en esta época se definieron las etiquetas para imágenes, tablas y formularios) ninguna de las dos propuestas de estándar, llamadas HTML y HTML+ consiguieron convertirse en estándar oficial.
En 1995, el organismo IETF organiza un grupo de trabajo de HTML y consigue publicar, el 22 de septiembre de ese mismo año, el estándar HTML 2.0. A pesar de su nombre, HTML 2.0 es el primer estándar oficial de HTML.
A partir de 1996, los estándares de HTML los publica otro organismo de estandarización llamado W3C (World Wide Web Consortium). La versión HTML 3.2 se publicó el 14 de Enero de 1997 y es la primera recomendación de HTML publicada por el W3C. Esta revisión incorpora los últimos avances de las páginas web desarrolladas hasta 1996, como applets de Java y texto que fluye alrededor de las imágenes.
HTML 4.0 se publicó el 24 de Abril de 1998 (siendo una versión corregida de la publicación original del 18 de Diciembre de 1997) y supone un gran salto desde las versiones anteriores. Entre sus novedades más destacadas se encuentran las hojas de estilos CSS, la posibilidad de incluir pequeños programas o scripts en las páginas web, mejora de la accesibilidad de las páginas diseñadas, tablas complejas y mejoras en los formularios.
La última especificación oficial de HTML se publicó el 24 de diciembre de 1999 y se denomina HTML 4.01. Se trata de una revisión y actualización de la versión HTML 4.0, por lo que no incluye novedades significativas.
¿Qué son?
Son exámenes realizados en Centros de Educación de Personas Adultas (CEPA) que permiten obtener el título de Graduado en Educación Secundaria Obligatoria.
Se efectúan en 2 convocatorias (Mayo y Septiembre) y de manera unificada para toda la Comunidad. Pueden participar todas aquellas personas mayores de edad,que no tengan dicho título, ni estén cursando estudios oficiales para su obtención.
Están organizadas en tres ejercicios: A-Social, B- Científico-Tecnológico y C- Comunicación.
El de Comunicación se desdobla en dos: Lengua y Literatura e Inglés.
Hay cientos de Lenguajes de Programación. Hoy hay más de 250.
Cada uno es para una tarea específica. El lenguaje más básico es el binario. Está compuesto por ceros y unos.
Los lenguajes de programación se clasifican según su nivel abstracción. Los menos abstractos son parecidos al lenguaje binario, pero son difíciles de comprender para los humanos. Los más abstractos se alejan del lenguaje binario, más aún son más fáciles de manejar para las personas.
Los menos abstractos son el lenguaje C y el Assembly (ASM). Ocupan poca memoria y son apropiados para pequeños ordenadores (relojes). Los lenguajes C++ y Swift son más abstractos (móviles, tablets, ordenadores de mesa). Son muy versátiles. Los lenguajes SQL son aún más abstractos y son apropiados para ordenar grandes cantidades de datos (redes sociales). Para ingeniería, el más importante es Python.
El lenguaje más utilizado es el JavaScript. Lo utilizan el 95% de las webs.
El objetivo siempre es el mismo: decirle a un ordenador que realice una tarea específica, para que los usuarios hagan otras tareas de la forma más fácil, rápida y eficaz posible.
El código es un conjunto de instrucciones y normas que componen un lenguaje de programación específico y que nos permite comunicarnos con un ordenador, así como con las personas .
Existen cientos de tipos de códigos de programación, cada uno dedicado a hacer una tarea diferente. Los programadores son los que comprender y utilizan estos lenguajes. Son los arquitectos y creadores del mundo digital. Para ello escriben secuencias breves de tareas que quieren que realicen los ordenadores. Esas secuencias se llaman algoritmos.
Diferencias entre Internet y Web
Internet es la red de comunicación mundial entre los ordenadores que permite transferir información entre ellos. La web es una conexión de páginas de información creadas a partir de códigos.
Los códigos más conocidos son el HTML y el CSS.
El HTML permite comunicarte con otras webs (el que) y el CSS es el que da apariencia a estas webs (el cómo)
En la red se generan grandes volúmenes de datos que no servirían de mucho si no se: Almacenaran, Clasificaran y Analizaran.
1: Recolecta dedatos de varias fuentes
2: Limpieza de datos para tener homogéneamente
3: Construcción de modelos seleccionando el algoritmo correcto del ML
4: Obtenemos una visión de los resultados del modelo
5: Visualización de datos transformando resultados en gráficos visuales.
A partir de estos macrodatos se genera conocimiento, productos y servicios.
Por ejemplo, nos permiten predecir el tiempo, analizar parámetros de salud, mejorar la eficiencia energética o vender más y mejor. Por eso la inteligencia de datos está revolucionando la ciencia, la economía, la política y nuestro estilo de vida.
Las cinco uves del Big Data
La gestión de un gran Volumen de datos, a la mayor Velocidad posible, almacenados junto a una extensa Variedad de información, que debe estar Verificada y Visualizadas
La quinta uve del Big Data
Sin embargo, cuando manejamos un gran volumen de datos masivos, son indispensables herramientas que nos faciliten este análisis. Es aquí donde entra en juego la quinta uve del Big Data: la visualización.
VISUALIZAR PARA COMPRENDER
La visualización de datos es una técnica para poder leer, analizar y comparar datos a partir de su representación gráfica. Por ello es necesario traducir estos datos a modelos gráficos que sí nos permitan hacer una lectura útil de la información y extraer conclusiones que muchas veces nos pasarían desapercibidas.
La visualización es una herramienta eficaz que puede aplicarse a cualquier tipo de estudio, desde identificar las relaciones entre participantes en una red social como Facebook hasta entender cómo se propagan enfermedades y epidemias en un territorio, o cómo ha evolucionado la esperanza de vida a lo largo del tiempo.
DE LAS HOJAS DE CÁLCULO A LOS SERVICIOS ON-LINE DE VISUALIZACIÓN
Siempre han existido datos y siempre se ha tratado de visualizarlos. Muchos programas de hojas de cálculo (como Microsoft Excel) incorporan desde hace tiempo herramientas para crear gráficos a partir de los datos de nuestras tablas, para poder cotejarlos de una manera visual.
Tenemos, por ejemplo, plataformas on-line, como Infogr.am o Datawrapper, con las que podemos crear gráficos y visualizaciones. Algunas de ellas utilizan información disponible en bases de datos abiertas, como Google Public Data, y otras, además, permiten incorporar información de bases de datos propias, como Watson Analytics de IBM o Tableau.
EL MEJOR GRÁFICO PARA NUESTROS DATOS
A la hora de generar visualizaciones con estos servicios es importante saber qué tipo de gráfico nos ayuda mejor a explicar la información que tenemos. Por ejemplo, si los datos contienen un elemento geográfico asociado, puede que lo ideal sea mostrar nuestra información sobre un mapa o, si los datos explican la evolución temporal de un fenómeno, la mejor visualización puede ser una línea de tiempo
Existen algunos recursos útiles para identificar qué tipo de gráfico o visualización es la idónea en función de los datos a mostrar. Scoopes una buena recopilación on-line de visualizaciones organizadas según la tipología de datos que representan. INFOGRAFÍAS
Resultado de imagen de infographic design.
Los estudios han demostrado que resulta más fácil captar y recordar información a través de imágenes que a través de texto. Esto es fundamental cuando tratamos de comunicar grandes cantidades de datos.
Las infografías son representaciones de información mediante símbolos e imágenes, muy útiles para explicar acontecimientos, procesos y situaciones de una manera fácil y mucho menos compleja que solo a través de texto.
Pero no podemos llamar infografía a cualquier diseño. Para que sea una infografía de verdad, debe aportar gran cantidad de información a la persona que la está visualizando.
A través de la visualización de datos explicamos historias, simplificamos, medimos, comparamos y en definitiva transformamos estos datos en información y conocimiento útil.
Vía: http://feltron.com/
Si te interesan las infografías, te encantará conocer a Nick Felton, más conocido como Feltron. HERRAMIENTAS DE VISUALIZACIÓN
Veamos más herramientas de visualización para poder explicar nuestros datos:
Con Venngage podemos crear y publicar infografías de manera fácil, utilizando plantillas que podemos personalizar.
Visual.ly nos permite crear y compartir visualizaciones e infografías a partir muchos tipos de datos, utilizando plantillas predeterminadas, y compartirlas con una gran comunidad de usuarios y profesionales (diseñadores, programadores, etc.).
Podemos usar Gephi para visualizar redes y relaciones e identificar patrones en la información.
Mapas inteligentes: los datos sobre el terreno
Los mapas son un recurso muy efectivo en la representación de los datos. Gracias al Big Data podemos disfrutar de un nuevo concepto de mapas mucho más evolucionados e interesantes. Mira por ejemplo este mapa que realiza un seguimiento de vuelos en tiempo real y que podéis consultar en cualquier momento a través de este enlace: http://www.flightradar24.com/41.39,2.16/7
Los mapas son tan importantes en el ámbito del Big Data que algunas empresas han centrado su actividad en ellos. Vizzuality, una startup española que nació en 2007, ha desarrollado un servicio en la nube llamado CartoDB que permite visualizar datos en mapas con el objetivo de entenderlos mejor y que puedan convertirse en herramientas para tomar decisiones.
En 2015 CartoDB era ya un proyecto empresarial independiente que había logrado una inversión de treinta y un millones de dólares y se había convertido en la plataforma de referencia a nivel mundial a la hora de representar información sobre una base geográfica.
A través de este enlace puedes echar un vistazo a todos sus mapas de datos: https://cartodb.com/gallery/ VISUALIZACIÓN, CIENCIA Y ARTE
Las técnicas de visualización de información no solo nos permiten explicar resultados complejos de forma sencilla sino que se han convertido en un buen recurso para hacer más atractivo cualquier relato.
La visualización nos ayuda a comprender más fácilmente la realidad que nos rodea y además nos proporciona una forma de atraer y persuadir al público cuando queremos explicar cualquier fenómeno. Puedes ver múltiples ejemplos de visualizaciones de información en los blogs especializados. Flowing Data Visualising Data. EL BOOM DE LAS REDES SOCIALES
Además de conectar con gente, las redes sociales te dan la posibilidad de seguir a páginas que te interesan, compartir su contenido etc. Las redes actúan como un gran escaparate para darse a conocer pero también son un canal que se nutre gracias a nuestros datos personales, por lo que es importante ser conscientes de la importancia de proteger nuestra privacidad en Internet.
No debemos hacer pública la información personal. Antes de publicar datos con los que puedan localizarte o causarte un problema, párate a pensar: ¿es realmente necesario?
Utiliza tu sentido común y no hagas en internet algo que no harías en persona. Rectificar es mucho más difícil en el ámbito digital.
Revisa quiénes son tus contactos y con quién compartes tus contenidos. Acuérdate de que tus publicaciones las van a ver todos. Incluso tus futuros contactos.
Si tienes dudas de si algo es seguro o no, pregunta a las personas mayores de tu confianza. Puede que no te parezcan más inteligentes que tú, pero tienen más experiencia.
COMMUNITY MANAGER, EL VIGILANTE EN LA SOMBRA
Resultado de imagen de community managerCon el afán de las empresas por publicitarse a través de las redes sociales nace el oficio del community manager, como gestor de los perfiles digitales de esas empresas. Habida cuenta del poder de influencia que tienen las redes sobre la sociedad, todas las marcas quieren aparecer en ellas, pero alguien debe ocuparse de administrar la actividad de sus perfiles, de recopilar todo aquello que se dice sobre la marca.
Velan por la identidad de la marca y su reputación, deciden el contenido que se publicará, contestan a los mensajes de los usuarios, pero siempre hablando en nombre de la marca y no de forma personal. Son los vigilantes en la sombra ya que, a diferencia de los influencers, su identidad no suele conocerse.
Para terminar, aunque el acceso a los datos se hace fundamental para la toma de decisiones, debemos ser conscientes de que los datos no son la respuesta a todo y que hay cosas que no son cuantificables.
La negociación, la empatía y la subjetividad, por ejemplo, son valores importantes que no se pueden medir y que influyen de manera decisiva en nuestra toma de decisiones. Por lo tanto, como sociedad también tenemos el reto de tomar decisiones ‘humanas’ y no únicamente basadas en datos, y ser conscientes de que tomar todas nuestras decisiones basándonos en algoritmos puede llevarnos a ser esclavos de nuestros propios números.
Las matemáticas que se estudian en España van desde el 1º ciclo de Educación Infantil (de 0 a los 3 años) hasta el 2º de Bachillerato.
El primer contenido que se estudia es contar del 1 hasta el 3, y el último, un tema de Estadística y Probabilidad: Cálculo de probabilidades mediante la aproximación de la distribución binomialpor la normal.
En general se estudian 5 bloques de contenidos:
1. Números, 2. Álgebra, 3. Funciones, 4. Geometría y 5. Estadística y Probabilidad.
En total son 264 temas, 12 en Educación Infantil (EI), 84 en Educación Primario (EP), 115 en Educación Secundaria Obligatoria (ESO) y 53 en Bachillerato.
La media es de 6 temas por cada nivel de EI, 14 temas por cada curso de EP, 18 temas por cada curso de la ESO y 12 temas por cada curso de Bachillerato.