{"id":161,"date":"2009-05-22T19:59:04","date_gmt":"2009-05-23T00:59:04","guid":{"rendered":"http:\/\/blog.espol.edu.ec\/hadoop\/?p=161"},"modified":"2009-05-22T19:59:04","modified_gmt":"2009-05-23T00:59:04","slug":"%c2%bfmoriran-las-datawarehouses","status":"publish","type":"post","link":"https:\/\/blog.espol.edu.ec\/hadoop\/2009\/05\/22\/%c2%bfmoriran-las-datawarehouses\/","title":{"rendered":"\u00bfMorir\u00e1n las datawarehouses?"},"content":{"rendered":"<p>En un <a href=\"http:\/\/db.cs.berkeley.edu\/jmh\/papers\/madskills-032009.pdf\">paper<\/a> escrito por alguna gente de <a href=\"http:\/\/www.greenplum.com\/\">Greenplum<\/a>, los autores argumentan que en la \u00e9poca de la Big Data (muchos muchos datos a ser procesados), los esquemas tradicionales de datawarehousing y business intelligence se vuelven obsoletos. Ellos proponen otra alternativa que han denominado an\u00e1lisis de datos MAD (Magnetic, Agile,\u00a0Deep). En el paper, dan un ejemplo real de Fox Interactive Media, que antes de la propuesta planteada por Greenplum, recurr\u00eda a un complejo proceso de datawarehousing+exportar resultados+procesamiento intermedio con scripts+procesamiento con MapReduce (Hadoop). La alternativa de ellos combina SQL y MapReduce en la base de datos de manera nativa, y a decir de los autores, les permiti\u00f3 \"volverse locos\" (go MAD) con el an\u00e1lisis de datos.<\/p>\n<p>NOTA a los alumnos de la materia: creo que este paper es de inter\u00e9s para todos. L\u00e9anlo (no es necesario que lo entiendan al 100%) para poder discutirlo la pr\u00f3xima clase.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>En un paper escrito por alguna gente de Greenplum, los autores argumentan que en la \u00e9poca de la Big Data (muchos muchos datos a ser procesados), los esquemas tradicionales de datawarehousing y business intelligence se vuelven obsoletos. Ellos proponen otra alternativa que han denominado an\u00e1lisis de datos MAD (Magnetic, Agile,\u00a0Deep). En el paper, dan un [&hellip;]<\/p>\n","protected":false},"author":1510,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[945,6,1465,708],"tags":[6514,2860,5939],"class_list":["post-161","post","type-post","status-publish","format-standard","hentry","category-desarrollo","category-espol","category-investigacion","category-negocios","tag-greenplum","tag-hadoop","tag-mapreduce"],"_links":{"self":[{"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/posts\/161","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/users\/1510"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/comments?post=161"}],"version-history":[{"count":2,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/posts\/161\/revisions"}],"predecessor-version":[{"id":163,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/posts\/161\/revisions\/163"}],"wp:attachment":[{"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/media?parent=161"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/categories?post=161"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.espol.edu.ec\/hadoop\/wp-json\/wp\/v2\/tags?post=161"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}