Archive for the ‘ESPOL’ Category
viernes, enero 22nd, 2010
Como parte de ESPOLciencia, el 20 de enero tuvimos una vídeo-conferencia titulada «The State of the AWS Cloud» a cargo de Jinesh Varia, un Evangelist de los AWS. La conferencia tuvo una excelente acogida, entre estudiantes, profesionales e investigadores. Si bien algunos estudiantes de la FIEC ya estaban familiarizados con estos servicios al haberlos utilizado en mi materia de graduación, para otros el concer sobre estos fue algo nuevo.
Para los que les pareció interesante la charla, recomiendo leer el whitepaper «Architecting for the Cloud: Best Practices», el cual proporciona ejemplos y casos de mejores prácticas en el uso de los AWS.
Como hubo interés de investigadores y profesores de usar los AWS, pongo a disposición también el enlace de los fondos del programa AWS in Education.
Tags: aws, cloud computing
Posted in Desarrollo, Educación, ESPOL, Investigación, Negocios | No Comments »
jueves, noviembre 5th, 2009
En clase algunos tuvieron problemas con el plug-in de Hadoop para Eclipse. Este problema se debe a que el mantenimiento del plug-in ha sido descontinuado. Leí en un e-mail (y respuestas) enviado a la lista common-user de Hadoop y se puede solucionar el problema re-compilando el plug-in. Pero al parecer una mejor alternativa sería trabajar con el Karmasphere Studio for Hadoop basado en Netbeans.
Tags: eclipse, hadoop, netbeans, plugin
Posted in Desarrollo, ESPOL | 2 Comments »
miércoles, julio 22nd, 2009
Uno de los grupos de la materia de graduación me comentó que estaba teniendo problemas implementando un sistema de recomendaciones usando Mahout (específicamente, Taste), debido a que tenían problemas de insuficiencia de memoria. Debe haber una manera de solucionar el problema, pero como alternativa pienso que podrían analizar utilizar el algoritmo descrito en el paper «Pairwise Document Similarity in Large Collections with MapReduce«. Encontré una entrada en un blog detallando el uso de este algoritmo, y un tutorial que muestra cómo implementarlo usando Elastic MapReduce.
Tags: aws, EMR, hadoop, mahout, MapReduce
Posted in Desarrollo, Educación, ESPOL | No Comments »
martes, junio 23rd, 2009
A más del TextInputFormat
(cada registro es una línea de un archivo de texto) usado por defecto, Hadoop soporta varios formatos de entrada para los mappers. Por ejemplo,
WholeFileInputFormat
: Cada registro es un archivo completo. No utiliza keys (NullWritable
). Los valores son instancias de BytesWritable
. Usando esta clase como formato de entrada para los mappers, nos permite asegurar que un mapper reciba el contenido de un archivo completo (a manera de arreglo de bytes). En el libro Hadoop: The definitive guide (págs. 193-196) hay una explicación detallada de cómo usar esta clase.
KeyValueTextInputFormat
: Cada registro es una línea de texto. Utilizado para leer de archivos de texto en los que cada línea representa una tupla <key, value> (por ejemplo, los archivos generados por los reducers que emiten TextOutputFormat
). El delimitador entre la clave y el valor es configurable (TAB por defecto).
StreamInputFormat
en combinación con StreamXmlRecordReader
: Cada registro es un «registro» XML. Los tags de inicio y fin del «registro» XML son configurables.
DBInputFormat
: permite leer datos de una base de datos relacional, vía JDBC. Hay una entrada detallando el uso de esta clase en el blog de Cloudera.
Tags: hadoop, InputFormat, mapper
Posted in Desarrollo, ESPOL | 1 Comment »
viernes, junio 12th, 2009
Una entrada en el blog de Data Wrangling describe tres data sets de la Wikipedia: el ya conocido raw dump, uno que contiene estadísticas de las frecuencias de visitas a las páginas de la Wikipedia durante 7 meses (el cual ya está subido a los AWS), y uno con la lista de los enlaces de las páginas a otras páginas.
Los invito a darme ideas de usos interesantes de estos data sets.
Tags: aws, wikipedia
Posted in Desarrollo, ESPOL, Investigación | 2 Comments »
lunes, junio 8th, 2009
La gente de Cloudera ha desarrollado una herramienta llamada Sqoop, que sirve para facilitar el proceso de importar datos de una base de datos al HDFS. Más información, incluyendo unas diapositivas muy explicativas, en el blog de Cloudera.
Tags: cloudera, hadoop, sql, sqoop
Posted in Desarrollo, ESPOL | 1 Comment »
jueves, junio 4th, 2009
Irene Varas está documentando en su blog los detalles de las clases de la materia. El recurso sin duda será de gran utilidad para aquellos estudiantes que por alguna razón falten a clase.
Posted in ESPOL | No Comments »
miércoles, junio 3rd, 2009
De ahora en adelante, usaremos también cuatro foros para la materia.
(más…)
Posted in ESPOL | 1 Comment »
lunes, mayo 25th, 2009
En clase surgió la pregunta de qué datasets hay disponibles de manera gratuita para procesar. Hay una lista muy extensa disponible en datawrangling.com, la cual puede servir de punto de partida para ideas de proyectos de procesamiento masivo de datos. La lista es realmente grande, pero vale la pena analizarla ya que hay datasets interesantes, como por ejemplo el de Audioscrobbler, que puede ser usado para sistemas de recomendaciones de música.
En otra entrada en el mismo blog, Peter Skomoroch escribe:
So what can you do with Elastic MapReduce? Here are a few initial ideas:
- Offload background processing from your Rails or Django app to Hadoop by sending the ElasticMapReduce API job requests pointing to data stored on S3: convert PDFs, classify spam, deduplicate records, batch geocoding, etc.
- Process large amounts of retail sales and inventory transaction data for sales forecasting and optimization
- Use the AddJobFlowSteps method in the API to run iterative machine learning algorithms using MapReduce on a remote Hadoop cluster and shut it down when your results converge to an answer
I’ll post more on this later today – including a detailed explanation of using Netflix Prize data in the code example and some next steps for using Elastic MapReduce.
Me parece que lo publicado en ese blog es de interés para la materia, así que lo he añadido al costado de esta página para poder seguirlo con facilidad.
Tags: datasets
Posted in Desarrollo, Educación, ESPOL | 9 Comments »
viernes, mayo 22nd, 2009
En un paper escrito por alguna gente de Greenplum, los autores argumentan que en la época de la Big Data (muchos muchos datos a ser procesados), los esquemas tradicionales de datawarehousing y business intelligence se vuelven obsoletos. Ellos proponen otra alternativa que han denominado análisis de datos MAD (Magnetic, Agile, Deep). En el paper, dan un ejemplo real de Fox Interactive Media, que antes de la propuesta planteada por Greenplum, recurría a un complejo proceso de datawarehousing+exportar resultados+procesamiento intermedio con scripts+procesamiento con MapReduce (Hadoop). La alternativa de ellos combina SQL y MapReduce en la base de datos de manera nativa, y a decir de los autores, les permitió «volverse locos» (go MAD) con el análisis de datos.
NOTA a los alumnos de la materia: creo que este paper es de interés para todos. Léanlo (no es necesario que lo entiendan al 100%) para poder discutirlo la próxima clase.
Tags: greenplum, hadoop, MapReduce
Posted in Desarrollo, ESPOL, Investigación, Negocios | No Comments »