En el repositorio dispones de los ficheros java así como texto de entrada (parte del quijote para probarlo).
## WordCount con spark
Spark, al igual que hadoop, funciona con varios nodos de cómputo y puede usar diferentes almacenamientos (como HDFS), aunque es posible usar spark localmente usando el almacenamiento de la máquina así como un único nodo.
Para las rutas de los ficheros de entrada, usaremos diferentes URLs del tipo:
*`file:///home/user/mifichero_entrada.txt` para el caso local
*`hdfs://namenode:port/path` para ficheros almacenados en HDFS
*`path` para rutas relativas al directorio de instalación (sin esquema)
Para usar el nodo local, cuando configuremos el contexto spark, usaremos `local[numeroNodos]`
### Proyecto y dependencias
* crea un proyecto Java en eclipse, convierte el proyecto en Maven Project.
* Añade las siguientes dependencias
```xml
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.3.2</version>
</dependency>
</dependencies>
```
* Crea una clase llamada JavaWordCount con este código: