24:24
2025-01-27 13:13:59
2:06:12
2025-01-27 13:42:41
3:36:29
2025-01-28 09:08:14
4:33
2025-01-28 13:48:42
55:46
2025-01-28 14:06:51
2:02
2025-01-29 10:22:33
1:02:14
2025-01-29 10:25:14
2:10
2025-01-29 11:38:26
2:26
2025-01-29 12:03:00
1:23:37
2025-01-29 12:05:56
35:40
2025-01-29 15:01:26
1:40:43
2025-01-30 09:07:07
1:08:48
2025-01-30 11:20:20
1:10:50
2025-01-30 13:15:56
3:50:03
2025-01-31 07:20:07
Visit the Talend Big Data Integration y Ecosistema de Talend course recordings page
United Arab Emirates - Talend Big Data Integration
WEBVTT--> como Hadoop Aksa en el menú metadata de repositorio. Y ahora vamos a hacer una --> conexión hacia el sistema de ficheros. ¿Cómo así? Váyase a la conexión del --> clúster por favor y le da clic derecho. En pocas palabras se conecta donde --> dice Hadoop Aksa. Y note que hay varias opciones sobre las cuales --> pues puede usted configurar sobre ese clúster. Una de las opciones es Hive. --> Recordará que a nivel teórico yo le había dicho que Hive es una base de datos que está --> cimentada sobre tecnología de Big Data. En versión 3 hacia abajo se --> cimentaba sobre Hadoop y en versión 3 hacia arriba se cimenta sobre Spark. --> Entonces yo podía crear un Hive que se conecte hacia ese Hadoop. En pocas --> palabras que almacene los datos en ese Hadoop. La otra es un HBase. HBase se --> escapaba aunque no es tan popular. HBase es una base de datos no SQL que --> ejecuta directamente sobre Hadoop. Imagínense un MongoDB pero acá este --> HBase el sistema de almacenamiento lo mantiene el sistema de fichero HDFS. --> Y hay un H Catalog que ese H Catalog en el sistema de lo que es Hadoop es --> como si fuera un diccionario de datos. Es decir guarda los datos a --> vez de tablas de cuáles son los archivos que están en el sistema Hadoop en el --> clóster y que digamos que particiones están en cada uno de los diferentes --> nodos que tengan. Y la última que es la que me interesa es crear una --> conexión hacia el sistema de fichero es decir hacia el sistema HDFS. Entonces lo --> que me interesa en la cuarta vamos entonces a la cuarta que dice crear --> HDFS. Vamos a llamarla entonces HDFS Slash AXA. Vamos a darle aquí Next. --> Y aquí le pregunta sobre la conexión hacia el sistema algunas configuraciones --> por defecto que es las configuraciones que estaban en el HDFS input en el --> cual el separador es Slash N y el digamos el carácter de --> comparación de los archivos que voy a almacenar es punto y coma. Esto es la --> configuración por defecto pero yo la puedo configurar cuando utilice por --> ejemplo algún tipo HDFS input por ejemplo. Entonces déle aquí un cheque --> debería conectarse. No hay problemas listo la conexión es exitosa. El caso --> de Brenda estás por no por ahí no por ahí no. Brenda cierra un momento. --> Cierra donde está. Sí, cierra, cierra, cierra eso. --> Situate en la conexión que creaste de Hadut. Es decir situate en Hadut AXA esa --> que está ahí. Dale clic derecho ahora por favor --> y escoge la cuarta opción que es crear HDFS es decir una conexión hacia --> el sistema de fichero. Llámala ahora HDFS Underscore AXA. Dale Next por --> favor. Dale check para ver de no debería haber ningún error en la --> conexión. Check. Ahí está. Perfecto. Dale OK y al final dale Finish. Entonces --> iremos por ahí por Finish. Y si expande el cluster debería aparecer el --> sistema de ficheros. La conexión en pocas palabras. --> Para probar esta conexión vamos a hacer lo siguiente entonces. --> Vamos a crear sobre la carpeta Hadut. Vamos a crear un nuevo job. --> Crear job. Y este job lo vamos a llamar Job Descargar Fichero --> Underscore Hadut. Descargar Fichero Underscore Hadut. --> Vamos a agregar los siguientes componentes. Vamos a agregar un HDFS --> Get. HDFS Get. --> Y vamos a agregar un T-Mesas Boss. --> Conecte el T-HF Get con el Mesas Boss. --> Y vamos a configurar entonces la conexión del... Vamos a configurar el --> T-HFS Get. Para configurarlo recuerde que hay que darle doble clic al --> componente. Justamente en el gráfico del componente. Dejemos darle doble clic. --> Y ahora como... Presta atención como la conexión la tengo es sobre la --> metadata. Es decir la conexión que ya configuré tengo que hacerlo de esta --> manera. Si se nota en la configuración aparece un property tie. --> Y aparece la configuración built-in. Es decir que la vamos a construir. --> Vamos a darle clic en ese combo Boss y vamos a decirle que la --> configuración la vamos a tomar del repositorio. Dele clic en repositorio y --> le cambio un poco la interfaz. Le aparece un text file. Dele clic ahora --> en el botoncito que está al final que son uno de los tres puntos. Y le va a --> llevar a la metadata para que coja la conexión que ya configuró --> previamente. Entonces aquí está Hadut Cluster. Baja. Sigue bajando y va a --> conectar con la conexión que se llama HDFS AXA. ¿Por qué? Porque lo que quiero --> acceder al sistema de ficheros. Le da clic a HDFS AXA y le da OK. --> Listo. Él hace la configuración necesaria y lo único que usted debe --> hacer es definir cuál es el archivo que va a descargar. Entonces el caso --> de Brenda que teníamos un problemita Brenda asegúrese que acá ah no listo no --> es necesario que venga. No es necesario porque no estamos usando --> barial de contexto que venga. Ahí perdí. Fui yo. Ahora sí vamos a darle en en la --> configuración que dice HDFS Directory en los tres puntitos --> y escoja el archivo que vamos a descargar. En este caso pues --> descarguese producción nuevamente. Es para hacer la prueba. Perdón. Aquí --> le preguntas el directorio. Perdón. Tiene que coger el AXA, no el archivo. --> AXA. Le pide ahora el directorio donde quiere hacer la --> la descarga. Sería local directorio. Entonces voy a --> darle clic aquí en los tres puntos y lo voy a mandar aquí a temporal. --> Aquí especifica la acción. En este caso entonces la acción le ofrecen --> tres. Una que es crear, sobre escribir y agregar. En la PEN lo que va a hacer es --> que va a sumar registros del archivo inicial que tengas al archivo que --> vaya a descargar. En este caso vamos a coger sobre escribir por si las dudas --> y vamos a especificar ahora sí el nombre del archivo que quiero --> descargar. Entonces voy a descargar producción. Se llama production.cv --> y lo voy a descargar con el nombre production.copy --> production.copy o production.score.copy --> ccv. Perfecto. --> Tengo todavía un punto rojo indicando como si hubiese existido un --> problema de configuración. No lo veo --> directamente. Voy a acceder un momento aquí al --> al code para ver si me está marcando algún error. --> No, no tengo ningún error. De pronto es que me tocaría ejecutarlo para ver --> qué raro. Al final configure el message box con el mensaje que usted quiera --> colocando archivo descargado correctamente. --> Por ejemplo, recuerde que en este caso como cuando son string la mayor parte de --> los casos tiene colocar comillas doble. El único caso que hemos utilizado un --> string sin comillas doble es para definir los contextos. --> Archivo descargado correctamente. No entiendo. --> Voy a adelantarme un poquito a ejecutar este señor acá para ver si --> me va a marcar algún error porque ese punto rojo me indica como --> aquí tengo el error. Dice este componente. --> Un momento y leí el error. Este componente tiene una salida. --> Creo que el problema se forma porque no debí conectarlo --> directamente como fila sino como un componente. --> Sí, qué pena. Ahí fue que la línea, por favor, haga lo siguiente, no acepta. --> A ver, el error cuál es. El error es que al conectar la línea con may él --> espera que el hfs get tenga una salida pero en realidad no está --> sacando ningún elemento. Entonces ese es el warning que está. --> Seleccione por favor la fila, dale click en row 1, la borra con --> suprimir y la vuelve a conectar con disparador y coloque on-component --> ok y la conecta, por favor. Sí, efectivamente ya se quita el error. --> Perfecto. Ahora voy a ejecutar entonces. --> A ver, ahora sí, revise que en el run este que vaya a ejecutar esté el --> nombre, el archivo del job que vaya a que sea usted. Bueno, aquí me salió el --> mensaje archivo descargado correctamente y cuando termine busca --> la carpeta escogida y debería estar la copia del fichero. Ahí está la --> copia del fichero. --> Ok. --> Bien, este ejemplo muy sencillo, lo que buscaba era que usted supiera cómo --> podía yo referenciar una conexión, en este caso de Hadoop, cuando la --> conexión está definida en una metadata. Termino este ejemplo de Hadoop --> haciendo una integración con s3. Muchas veces vas a tener archivo que --> puede estar dispersos, entonces tú recordarás que puede haber --> una etapa de ingesta, que la ingesta es que tú tengas los archivos divididos en --> diferentes fuentes y los vas a centralizar en una fuente. Quizás la --> fuente que hayas escogido de centralización sea un HDFS de Hadoop. --> Entonces vamos a hacer el siguiente ejemplo. Vamos a descargar un archivo --> del s3, acto seguido lo vamos a formatear y lo vamos a enviar como --> salida al HDFS. Eso es lo que vamos a hacer. --> Sí, dígame, versionador de los jobs. Sí tiene control de versiones, pero ese --> control de versiones la maneja mejor la versión propietaria. Hagamos algo, --> mañana yo le muestro un ejemplo con la versión propietaria en cómo --> maneja las versiones. Y esas versiones son manejadas tanto a nivel --> local como a nivel de un repositorio de control de versiones en Git. --> Este lo podía manejar previamente, o que haría ser un poco más manual, pero como --> al final va a usar el propietario, yo le muestro mañana un ejemplito con el --> propietario para que vea cómo maneja el control de versiones interesante. --> Listo, gracias por preguntar. Bueno, vamos entonces a terminar con este --> ejemplo y este ejemplo de Hadoop, que todavía no he utilizado Big Data, --> estoy simplemente usando el sistema de ficheros HDFS. ¿Por qué no estoy --> usando Big Data aunque estoy usando Hadoop? Porque la definición clara de --> Big Data al final hoy en día es que proceses con Big Data y todavía no he --> procesado con Big Data. Termino entonces con este ejemplo un poquito más --> complejo y vamos entonces a hacer lo siguiente. Voy a crear aquí un job, --> dice crear job y lo voy a llamar entonces Jot, --> procesar, perdón, no, formatear archivo --> con the record nba. Termino este que va a ser un poco más complejo. --> Jot formatear archivo nba. Le damos finish aquí. --> Aprovecho esto y voy a tratar en lo posible de cada ejemplo que vaya a --> hacer, voy a agregar nuevos componentes para poder ver la mayor cantidad de --> componentes posible. Bien, vamos a adicionar dos componentes aquí --> adicionales. Un componente que se llama un teprayop y un componente que --> se llama teposjop, teprayop y teposjop. ¿Qué hacen estos teprayop y teposjop? --> Bueno, algo interesante a nivel de poder darle un poco más de sentido y --> orden a los job. Si recuerda que cuando el concepto de subjop, listo --> cuando tenemos un teprayop, el primer subjop que se ejecuta es todo lo que --> está aquí en el teprayop. Es decir, vamos a suponer que tú tengas cualquier --> componente aquí, un tefile no la gusta ya para que lo entienda aquí. --> En primer lugar, note que estos componentes no están unidos, por lo --> tanto, estos componentes por defecto, si no tengo configurada la parte de --> multitread, se van a ejecutar de forma secuencial. ¿Por qué sé que hay --> tres subjop? Porque no están unidos. Entonces aquí tengo un componente, dos --> componentes, tres componentes. Al final tengo tres subjop. Pero cuando tengo un --> teprayop, lo que hace internamente talent es que va a ejecutar primero --> siempre este elemento. Entonces tú deberías tener un teprayop para --> iniciar variables o configuraciones específicas. Y el teposjop siempre se va --> a ejecutar al final y este debería ser utilizarlo para conectar, perdón, --> para desconectar o para borrar algunos archivos quizás intermedio que --> hayas definido. Entonces vamos a hacer lo siguiente. Vamos a definir en el --> teprayop todos los elementos de conexión que necesito para este job. --> Para este job voy a necesitar una conexión hacia un sistema de --> fichero HDFS del Clotel de Hadoop y una conexión hacia un S3. Pero una --> característica que tiene los jobs del señor talent es lo siguiente. --> Váyase al primer job que fue subir archivo. --> Subir archivo. Ábralo por favor si es tan amable. --> Y ahora copie los componentes que usted vaya a reutilizar. En este caso me --> interesa este componente de conexión. Entonces voy a darle click, --> voy a copiarlo y lo voy a pegar en este job de acá. Y se me copia tal --> cual como tenga la configuración. Pegar. Y de esa manera pues yo puedo --> algunas configuraciones copiar y pegar sin tener que volverlas a hacer --> nuevamente. Ya esta conexión sé que me funciona por lo tanto no me voy a --> ponerla configurar porque ya habíamos ejecutado ese job y no funcionaba --> correctamente. Voy a proceder ahora a hacer una conexión hacia un S3. --> Entonces voy a colocar aquí TS3. TS3. Y aquí debe haber un --> connection. Aquí está TS3 connection. A alguno le apareció un naranja. --> Vamos a ver qué pasó. Un momento. No, uno solo. Ya un momento por favor. --> En el caso de Jorge Luis le pide que instale, por favor dele doble click al --> TS3 connection. Dale doble click para configurarlo y aquí algunos --> componentes por defecto no tienen, no están descargados los componentes. --> Solamente está el nombre. Básicamente lo que está haciendo esto es que como --> esto está en java, lo que está haciendo esto al final es que le va a --> descargar unos YAR. Entonces dele aquí en instalar por favor --> y dele download e install. Al final lo que hace es descargar los YAR. Disculpe --> ¿Quién me estaba comentando de que no pudo copiar? Qué pena que --> interrumpí en el momento. --> Listo, perfecto. --> Listo, perfecto. Ahí está en instalar. Listo, algunos que --> están instalando. Perfecto. No quedamos entonces en la configuración y vamos a --> una conexión por credenciales estáticas. Vamos con un access key y un --> secret key que eso lo vimos el día de ayer en un ejemplito del talent data --> preparation. Entonces vayamos a la carpeta, al producto archivo de --> windows y vamos a buscar las credenciales para conectarnos a un --> s3. Entonces voy aquí a donde dice escritorio. --> Vamos a donde dice recursos. Talent, TBD, credenciales s3. --> Credenciales aquí s3. Copio el access key y lo voy a pegar --> en el access key. Tiene que estar entre las comillas dobles. ¿Por qué? --> Porque es un string. Tengo que pegarlo entre las comillas dobles. Y --> ahora me pide entonces el secret key. Voy a copiarlo. --> El secret key que es desde el más hasta la P. --> Voy a copiarlo y lo voy a colocar en el componente secret key y que debe --> estar dentro de las comillas dobles. --> Entonces dentro de las comillas dobles voy a colocar el elemento. --> Como dato curioso aquí, cuando yo lo agrego y lo vuelvo a abrir, él lo --> encrita con base 64. Perdón, se me escapa el algoritmo de --> encriptación. Es decir que si yo abro aquí no lo voy a poder ver --> nuevamente. Es decir, ahí no aparece, pero ya debió configurarlo ahí. --> No sé si lo borró, no creo que lo haya borrado. El caso Fernanda, por favor, --> dele clic en install. Ok, bajar e instalar. Listo, perfecto, --> Fernanda. Listo, perfecto. Ahora, en el T-Pre-Job, vamos a conectar el T-Pre-Job --> con el T-HFS Connection y conecte el HFS Connection con el TS3 Connection --> con un component ok. --> Significa que el primer sub-joke que se va a ejecutar es lo que está --> conectado al T-Pre-Job. Es decir, que inicialmente va a ser las --> conexiones al HDFS y al TS3. Este señor lo voy a borrar de aquí, --> que eso era para ejemplificar, por favor, si no lo vamos a usar, --> qué pena. Agregue ahora un componente que es TS3 --> Closed, TS3 Closed y conecte el T-Pre-Job al TS3 Closed. --> Disparador o un component ok. Vaya al TS3 Closed y lo configura. --> Bueno, por defecto toma la configuración que esté de la conexión, --> entonces no hay problema, ya queda configurado ahí. --> En pocas palabras, este T-Pre-Job y el T-Pre-Job lo que hacen es darme, --> permitir leer de forma, digamos, mucho más documentada y mucho más fácil el job. --> El T-Pre-Job primero lo que hace es que se ejecuta el sub-joke primero y el T-Post-Joke. --> En este caso el T-Pre-Joke hace las conexiones y el T-Post-Joke cierra las conexiones. --> Voy a hacer entonces lo siguiente. Voy a descargar un archivo que está en el --> TS3. Entonces voy a colocar aquí un TS3 Get. --> TS3 Get. --> Listo, entonces en TS3 Get, este que está aquí, --> vamos a decirle que vamos a usar una conexión existente al Get y ya por --> defecto me está tomando la configuración de la conexión que ya había definido anteriormente. --> Listo, aquí ahora en el bucket, este que está aquí, me pide entonces qué elemento --> deseo descargar del S13. Entonces en el bucket por favor coloque Noble Pro, --> ya le escribo acá en grande, dentro de los signos de las comillas dobles, --> va a colocar Noble Pro, acá lo voy a colocar en nuevo aquí, acá. --> El bokeh se llama Noble Pro y ya les digo el archivo que vamos a descargar. --> Un momento por favor, y entro al bokeh que se llama nba underscore, un momento, listo. --> El archivo se llama nba.xml, perdón un momento, le confirmo porque de pronto --> esa versión está errada, un momento, un momento por favor, no, ese es muy pequeño, --> vamos a uno un poquito más grande, listo. En el nombre del fichero, el nombre que va a --> descargar en donde le pide el key es este archivo, que se lo voy a colocar aquí, --> es team under core nba.csv, team nba.csv, y fíjate que este señor lo voy a copiar aquí. --> Listo, aquí entre las comillas dobles lo coloco. Voy a agregar entonces lo siguiente, --> me pregunta ahora dónde quiero ubicar este archivo, entonces le recomiendo que cuando --> voy a colocar de forma manual, porque aquí me toca apuntarlo a un archivo específico, --> no me va a dejar seleccionar la carpeta, me tocó seleccionar un archivo de estos, --> vamos entonces a colocarlo de forma manual, yo creo le aconsejaría como estamos con java, --> cada vez que vaya a colocar una ruta absoluta, por favor, hágalo entonces c2.slash invertido, --> y vamos a llamar el archivo exactamente igual, team.csv, este que está aquí, --> slash, porque si quieres el otro te tocaría hacerlo de esta manera, creo que a veces es --> un poco más engorroso, sería doble slash así, entonces mejor de esta sí, voy a decir sí manual, --> o la otra si no quiere manual haga lo siguiente, que también es viable, --> expande aquí y escoja cualquier archivo que esté en la ruta, por ejemplo va a coger --> producción.csv y me lo va a dejar abrir y después le cambio el nombre, que también es viable, --> entonces ya después que he cogido el archivo, le voy a cambiar aquí a producción, --> le voy a llamar team underscore nva, que también me funcionaría, porque el file chooser está --> configurado para escoger un archivo, el anterior me permitía escoger una carpeta, --> pero este está configurado para escoger un archivo, al final decida cuál es la --> forma para cada quien, pues a veces trabaja de forma diferente. --> Listo, voy a agregar ahora dentro de este yoke ciertos elementos para documentar este yoke, --> una de las formas de documentar es entonces usar una nota, coloque aquí note, de nota en inglés, note, --> y aquí puedes entonces ampliarla aquí si tú quieres y aquí voy a colocar, --> se descarga, se descarga un archivo del s3 llamado team nva.csv y listo, --> aquí voy a ampliarlo, que hay que cogerle el truquito aquí, bueno ya lo cogí, --> bueno aquí está, aquí puede configurar el color, el fondo, el texto, qué más, --> bueno aquí voy a tratar de que no me deja el mouse, --> mejor lo voy a colocar horizontal, porque parece ser que no me está dejando, --> creo que aquí me ha tocado colocar un enter, --> si le coloque un enter acá en el texto y se me perdió el fondo, voy a colocarle un --> fondo cualquiera aquí, qué es este, qué pasó, no me está cambiando el fondo, bueno no sé ahí, --> para que bajara me tocó dar un enter, porque por defecto no justifica con el tamaño de las --> letras que tenga, está un poquito de problema, es como en la máquina virtual con el mouse a --> ver si no llega tarde y parece como que uno lo mueve y no coge la configuración. --> Atención a lo siguiente ahora, yo deseo este archivo descargarlo, pero a su vez --> este archivo lo voy a formatear y lo voy a mandar a Hadoop, significa que carece de sentido --> que este señor, este archivo lo mantenga a nivel local, porque lo va a tener en Hadoop, --> entonces en el t-post job voy a hacer lo siguiente, voy a agregar aquí un componente que --> se llama t-file deleted, la idea es que ya después que yo descargue, procesé, voy a quitar ese --> archivo del sistema local, o sea de la máquina en que lo ejecuté, entonces él se llama t-file --> delete y ahora váyase al t-sclose y entonces aquí tiene, hágalo con un componente ok acá --> y haga lo siguiente, copia la ruta que tiene en el s3 del archivo descargado que ya lo tiene --> aquí en el s3 get, lo copia y lo pega acá. Quiero ahora procesar ese archivo, para poder --> procesar este archivo voy a hacer lo siguiente, necesito entonces recorrer el archivo para --> procesarlo, voy a cambiarlo un poco el formato, voy a coger unas columnas específicas, entonces --> voy a agregar aquí un componente que ya lo hemos visto que se llama el t-file, lo que pasa --> es que, un momento espere un momentico, creo que no me va a dar tiempo, son las 3 y 40, --> lo voy a mandar directamente a Hadoop mejor, lo voy a mandar directamente a Hadoop, entonces voy a --> hacer lo siguiente, no lo voy a formatear, voy a directamente el archivo, lo voy a mandar a Hadoop --> directamente porque no va a dar tiempo, voy a hacer lo siguiente ahora, para mandar un archivo --> recuerde que lo que hace es un put, hdfs, put y aquí note lo siguiente, creo que fue --> Beatriz la que me preguntó, en este caso no me convendría hacerlo multi-tread, porque para poder --> subir el archivo primero tuve que haberlo descargado, entonces necesariamente me toca --> hacer una jerarquía aquí, ahora partiendo de que primero lo voy a descargar y después lo voy --> a subir, lo más conveniente es que yo entonces conecte este componente de aquí, lo conecte --> con un disparador con su shock ok, de tal forma que primero descargue y después intente subir. --> Aquí si no me sirve el multi-tread. Acto seguido voy a configurar el thfcput, --> este de aquí, ya tengo una conexión que la tengo, que viene el t-pre-job, --> entonces voy a usar una conexión existente aquí, voy a configurar la conexión en el --> hfcconnection y aquí si puedo usar perfectamente los botones de configuración, el directorio --> local cual sería, pues el directorio local es donde iba a quedar el archivo descargado que --> es temporal, el directorio de salida va a ser el directorio de AXA, que está en el hdfc y el --> archivo que voy a subir, voy aquí, se va a descargar con el nombre team underscore nba.csv, --> team underscore nba.csv y lo voy a mandar entonces --> acá con el mismo nombre al sistema de ficheros de hdfc, espero que algunos terminen de configurar, --> voy a darle guardar por si de pronto hay algún problema con la máquina virtual antes de --> ejecutar. Bueno y el job aquí como buena práctica de desarrollo, pues que es lo que --> esperamos del job, que suba el archivo team nba en el sistema de hdfc y que borre al final de --> la máquina virtual de windows y me quede en la máquina virtual que sería la de Ubuntu donde --> el trabajo que voy a ejecutar es el que deseo, trabajo, job, formatear archivo nba, listo, --> en este caso el nombre me quedó me quedó corto porque no hizo ningún formateo, --> en realidad lo que hizo fue descargar y subir, voy a ejecutar para ver, --> bueno y está todavía ejecutando, se conectó, ya descargó, ahí está un ok --> y subió acá, entonces voy a comprobar cómo compruebo, voy a darle f5 y debería estar team --> nba, efectivamente aquí está nin con 79 megas que pesa y en temporal no debería existir ese --> archivo porque lo mandé a borrar, temporal perfectamente no está, bueno vamos a ver quién --> tiene errores, noto que tienes un error acá Fernanda, vamos a ver, voy a tu máquina, --> voy a tu máquina, nota que el error te lo está marcando en el file delete verdad, --> significa lo siguiente, por favor si eres tan amable entra tu file delete, estoy en tu pantalla, --> dale doble clic, haz este file delete, justamente en el medio del doble clic, --> bueno ahí el error que pasa es lo siguiente, nota que por defecto el componente tiene --> habilitado fail o un error, o sea que marque un error si falla, es decir que él intentó --> borrar ese archivo y ese archivo no lo encontró en la carpeta ten y por eso te mandó un error, --> veamos lo siguiente, vete a tu carpeta ten un momento, en el explorador de archivos de --> windows, la carpeta ten y efectivamente no está ahí, está rara la situación, vete --> ahora al explorador de archivos y muéstrame los archivos que te quedaron en el HDFS en el --> cron o lo tienes en edge, dale f5 por favor, ahí tampoco hizo nada, vete entonces nuevamente --> a tu job y muéstrame tu TS3, a ver el TS3 get, ahí supuestamente lo descargó, --> está mal, intenta ejecutar para ver, no si es la RSI, vamos a ver, ahí te --> a tu browser y dale f5 a ver, sí efectivamente pero ahí debió marcar, no marcó un error el TS3 --> porque había un problema en el nombre del bucket, bueno ahí no lo marcó, perfecto, --> bueno pero funcionó perfectamente, a alguno no le funcionó o me avisa por favor, vamos a ver, --> no existe, ah ok, váyase un momento al TS3 get un momento, dale doble clic al TS3 get, perfecto --> noble pro, listo, váyase al HDFS put un momento, dale doble clic por favor, --> lo que no entiendo por qué lo puso sensible, ahí el error está en que no encontró el --> tim con T mayúscula, cambia de la T a T minúscula un momento y déjelo, bueno cambia los dos lados --> porque si no le queda con la T minúscula que es la T mayúscula del lado derecho, --> lo raro es que no salió error porque estamos en Windows, ejecute para ver si está mal nuevamente, --> váyase a sus problemas de archivos si está mal y dale f5 para ver si copió, --> dale f5 para ver si, si efectivamente se me hace raro porque la base que tengo es Windows, --> ahí tiene que ver algo con el talent que tuvo cargado porque es que Java no es sensible --> cuando el sistema de fichero lo tengo en Windows y lo tengo en Unity, bueno y se --> me hace raro, voy a tener que investigar, bueno listo gracias a usted, no todavía no --> hemos procesado nada con Big Data simplemente estamos haciendo unos pequeños ejemplos para --> empaparnos primero con Hadoop y segundo con el talent como tal, antes de finalizar hay que --> hacer lo siguiente para evitar la configuración que hicimos al inicio que era formatear y --> esos elementos, vayamos por favor entonces a la consola de administración del HyperBig, --> es esta que está abierta aquí y ahora dele click por favor en la máquina virtual --> le va a dar click derecho ahora y hay una opción que dice guardar, eso lo que hace que --> guarda la máquina en el estado justamente en que está, dele ahí guardar --> click derecho hay en guardar, listo aquí le guarda la máquina perfecto --> aquí cerramos acá y por favor bueno aquí ya cerramos esto y apague la máquina virtualista --> porque es que si queda encendida entonces y no la estamos usando al final cobran por el uso --> de esa máquina virtual la apaga por favor después que haya guardado la máquina virtual del HyperBig --> esta es otra máquina virtual sobre Windows, se apague la máquina de Windows y mañana quedo --> pendiente a un pequeño ejemplito que era el de las versiones como la está manejando el talent --> inversión comercial