9:39
2024-05-29 10:14:10
4:49
2024-05-29 10:29:56
5:42
2024-05-29 10:36:28
2:45
2024-05-29 10:43:46
1:00:16
2024-05-29 10:48:22
3:26
2024-05-29 12:18:04
5:22
2024-05-29 12:24:11
1:43
2024-05-29 12:33:10
55:30
2024-05-29 12:36:17
47:02
2024-05-29 14:57:58
2:18:28
2024-05-30 09:31:42
32:39
2024-05-30 13:09:57
24:21
2024-05-30 15:06:50
18:09
2024-05-30 15:44:33
3:56:30
2024-05-31 09:51:34
4:23:53
2024-06-05 09:12:19
28:23
2024-06-06 10:52:48
12:29
2024-06-06 11:32:59
3:47
2024-06-06 11:48:14
1:36
2024-06-06 12:03:40
54:36
2024-06-06 12:09:30
1:24:03
2024-06-06 13:32:03
13:43
2024-06-06 15:42:24
18:06
2024-06-07 09:07:48
9:43
2024-06-07 09:33:41
2:49:27
2024-06-07 09:49:42
3:47
2024-06-11 09:19:48
5:51
2024-06-11 09:25:13
1:53
2024-06-11 10:21:33
7:58
2024-06-11 10:26:29
2:48
2024-06-11 13:27:27
43:31
2024-06-11 13:50:56
2:46:00
2024-06-12 09:14:49
20:20
2024-06-12 13:22:18
29:54
2024-06-12 15:00:28
WEBVTT--> bueno hay que subirle cuatro gigas más entonces aquà tengo si Gerardo y Antonio también está en negro como decÃa --> bueno de todos modos terminamos con este último ejemplo y mañana retomamos estos a los que se quedaron --> observe por favor aquà terminamos con el siguiente vamos a listar esos toquetos --> el mismo ejemplo que tenÃamos allá entonces vamos aquà a la --> a la configuración de la máquina listo y la tengo de este lado --> vaya a hacer el job --> y agreguemos aquà entonces un conexiones adult click derecho --> crear job --> entonces vamos a llamarlo job --> listar --> toquetos --> job listar toquetos --> rápidamente copie la configuración del tepreyog no se preocupen los que de pronto no les ve --> mañana hacemos el mismo ejemplo ya es para terminar los últimos 10 minutos aquà --> copia la configuración del --> de otro señor y hacemos lo mismo entonces vamos a buscar un archivo que se llama --> hdfs list --> agregamos un te llave --> y conectamos el te hdfs list --> con iterator al te llave --> configuremos el te hdfs list --> con usar conexión existente para no tener que configurar todo listo --> escojo aquà la conexión --> y me pregunta de que directorio quiero sacar los archivos en este caso el directorio que quiero sacar es de --> slash axa en el mismo --> como lo haya especificado por favor --> y de ese lado entonces agrega lo siguiente en el te llave ya para finalizar --> agregue aquà un system sys control espacio --> ten punto o ahà está --> punto pr y busco aquà println --> o si quiere pues si no sabe copielo --> listo voy a borrarle el último paréntesis porque creo que es más fácil como este te llave está unido con un --> te hdfs list busco los elementos del te hdfs list del lado online --> y aquà está algo que se llama current file --> lo tomo y lo suelto de este lado --> y termino con un paréntesis que cierra --> punto y coma y hay que ver cómo solucionamos el problema de la memoria --> ya parece que Jimena me escribió ah listo me dice que lo hagamos al final para subir la memoria --> vamos a subirle cuatro gigas más --> a ver cómo nos va --> por favor si esto ya lo tiene listo ejecute --> y deberÃa aparecerle los archivos demográfico y sensos --> aquà estoy aquà estoy ejecutando el joke anterior a la costumbre de subir --> voy a cerrar esto yo --> y voy a abrir el de listar porque estaba ejecutando el de subir entonces --> le doy doble clic aquà --> listo está aquà ejecutando vamos a ver --> ejecuto --> dice que hay error de compilación --> no sé qué error de compilación hay de este lado --> voy a buscar aquà el code para ver si me muestra no sé qué pasó aquà --> está supremamente lento aquà hay un error en --> a que no importe que verán no importe los contextos --> pequeño problemita importo los contextos --> nada más uno pues importo el contexto de axa --> ok listo y ahora si ejecuto --> deberÃan aparecer los dos archivos eso --> creemos que en este punto todavÃa estamos es usando una tecnologÃa de --> almacenamiento de big data no estamos progresando nada con big data --> estamos usando es una tecnologÃa que en este caso serÃa el hdf dejado --> para almacenar no hemos progresado nada aquà aparecen los archivos --> demográfico y sensos no sé si apoyo a alguien para terminar --> estos últimos 10 minutos y que nos salga este esto lo repetimos mañana --> el caso de gerardo y antonio que para que le quede --> cerró la máquina ok --> lilyana lilyana fue importante los contextos --> dale ok ahà por favor dale ok vete en context por favor context --> a no en java listo el error está en java doble clic --> doble clic a ese señor para ver --> y el error está en --> no no lo veo vayas en co mejor vayas en el co que no vi el error ahà no --> veo si es para que me lo marque --> no me preocupe que está un poquito lento --> listo ya está marcando el punto rojo --> dele clic en el punto rojo por favor --> punto dele clic --> ah ok que iba a un punto y no lo habÃa visto --> muchas gracias por la vida y ahà está --> ah wow que vista wow listo el serente --> wow que vista punto ejecuten por ahora sà listo --> dale ok ahà ejecutar --> no bien que vista no lo yo hice --> listo esperemos deberÃa listarle los ahà está los dos archivos que tenemos --> que es demográfico y sensos perfecto --> bueno por favor a lo siguiente cierre todo --> y apague la máquina porque para poder subirle --> la memoria tiene que estar la máquina apagada --> vamos a ver no sé si la tienes quien me habló vamos a ver --> hay que de repente salió ok entonces --> listo conecta el tepre yo bueno bueno a ver confiaremos en distribución ahà --> bueno conectaste listo conectarte ahà perfecto --> vete ahà al thf conector cambia ahà --> distribución a universal creaste ya la variable dirección --> instala por favor ahà instala el hdf conector dale instalar --> creaste ya el contexto no sabes no le cuerdas la variable que se llama dirección --> ya listo esperemos entonces que --> listo dale descargar ahà donde va por favor apagamos la máquina --> para poder subirle la memoria para mañana vete a donde dice context doble clic --> en alza next --> y agrega una nueva variable ahà --> la variable le va a llamar dirección hadut --> dirección hadut y la --> en cua serÃa 10.0.3.250 --> 3 el ultimo 0 --> 10.0.3 quita el ultimo 0 --> 3.250 esa misma dirección pega la ya --> en producción por favor listo dale finish ahà --> yes --> ok vete ahora a la dirección --> vete a dirección del name node que dice hdfs localhost --> borra localhost el localhost borralo --> la palabra no no el localhost nada más la palabra localhost --> nada más localhost bueno cierra ahà --> con comilla doble comilla doble más --> antes vete a donde dice context --> del job por favor --> ahà en el context no el job ahà listo importa el contexto --> todos los contextos listo ok --> pero no te agregó el --> dale nuevamente importar ahà importar --> expande ahà expande y escoge dirección que listo dirección --> ok listo ahora vete nuevamente al --> la construcción del componente de connection dale --> después de más con control espacio no dale --> no dale y quita el dir dale la palabra con ahà está bueno está listo --> si es ese más ahora comilla doble --> dos puntos --> dos puntos nueve mil --> y cierra con slash y después con comilla doble --> perfecto listo vete ahora al --> HDFS input --> y ahora dale que va a usar conexión existente --> use conexión existente --> y listo el local directorio borra --> no borra el local directorio vamos a usar el de contexto --> borra las dos comillas doble y usa contexto y la variable es --> ruta era ruta la variable de contexto es ruta la ruta --> que la tienen los dos listo si vamos a subir exactamente --> ahora en el directorio ahora si baja como lo hayas especificado --> pero con slash el slash va a ir en necesario --> porque si no nos da error ahora baja entonces un poco --> y agreguemos los archivos que vamos a subir dale más --> y ahà deberÃa tener un archivo que se llama census en minúscula --> .csv --> .c --> .csv copia el mismo nombre y lo pega acá en el new name --> copia lo de ahà todo con la comilla doble todo con la de todo y lo --> sobre escribe todo --> no no he visto la forma dale entra ahà --> y sube ahora demográficos se llama --> demográficos demográficos --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv --> .csv