Мне удалось запустить программу Python 3/Spark 2.2.1 на платформе Google Colab.Research:
!apt-get update
!apt-get install openjdk-8-jdk-headless -qq > /dev/null
!wget -q http://apache.osuosl.org/spark/spark-2.2.1/spark-2.2.1-bin-hadoop2.7.tgz
!tar xf spark-2.2.1-bin-hadoop2.7.tgz
!pip install -q findspark
import os
os.environ["JAVA_HOME"] = "/usr/lib/jvm/java-8-openjdk-amd64"
os.environ["SPARK_HOME"] = "/content/spark-2.2.1-bin-hadoop2.7"
import findspark
findspark.init()
from pyspark.sql import SparkSession
spark = SparkSession.builder.master("local[*]").getOrCreate()
это отлично работает, когда я загружаю текстовые файлы с моего локального компьютера на виртуальную машину Unix, используя
from google.colab import files
datafile = files.upload()
и прочитайте их следующим образом:
textRDD = spark.read.text('hobbit.txt').rdd
Все идет нормально ..
Моя проблема начинается, когда я пытаюсь прочитать файл, который лежит в моем каталоге colab на диске Google.
Следуя инструкциям, я аутентифицировал пользователя и создал службу привода
from google.colab import auth
auth.authenticate_user()
from googleapiclient.discovery import build
drive_service = build('drive', 'v3')
после чего я смог получить доступ к файлу, лежащему на диске, следующим образом:
file_id = '1RELUMtExjMTSfoWF765Hr8JwNCSL7AgH'
import io
from googleapiclient.http import MediaIoBaseDownload
request = drive_service.files().get_media(fileId=file_id)
downloaded = io.BytesIO()
downloader = MediaIoBaseDownload(downloaded, request)
done = False
while done is False:
# _ is a placeholder for a progress object that we ignore.
# (Our file is small, so we skip reporting progress.)
_, done = downloader.next_chunk()
downloaded.seek(0)
print('Downloaded file contents are: {}'.format(downloaded.read()))
Downloaded file contents are: b'The king beneath the mountain\r\nThe king of ......
даже это работает отлично..
downloaded.seek(0)
print(downloaded.read().decode('utf-8'))
и получает данные
The king beneath the mountain
The king of carven stone
The lord of silver fountain ...
где все, НАКОНЕЦ, ИДЕТ НЕ ТАК, где я пытаюсь получить эти данные и поместить их в искровой RDD
downloaded.seek(0)
tRDD = spark.read.text(downloaded.read().decode('utf-8'))
и получаю ошибку..
AnalysisException: 'Path does not exist: file:/content/The king beneath the mountain\ ....
Очевидно, я не использую правильный метод/параметры для чтения файла в spark. Я пробовал довольно много из описанных методов
Буду очень признателен, если кто-нибудь поможет мне разобраться, как читать этот файл для последующей обработки.