Je suis en train de lire un petit fichier txt qui est ajouté comme un tableau de la valeur par défaut db sur Databricks. Tout en essayant de lire le fichier par Fichier Local de l'API, je reçois un FileNotFoundError
mais je suis capable de lire le même fichier que l'Étincelle RDD à l'aide de SparkContext.
Vous trouverez le code ci-dessous:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
Cela me donne l'erreur:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
D'où aussi, je n'ai aucun problème de lecture du fichier en utilisant SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
Et comme prévu, je obtenir le résultat ci-dessus par le bloc de code:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Je faisait aussi référence à la DBFS documentation ici pour comprendre le Fichier Local de l'API de limitations, mais de pas de plomb sur la question. Toute aide serait grandement appréciée. Merci!