Java自学者论坛

 找回密码
 立即注册

手机号码,快捷登录

恭喜Java自学者论坛(https://www.javazxz.com)已经为数万Java学习者服务超过8年了!积累会员资料超过10000G+
成为本站VIP会员,下载本站10000G+会员资源,会员资料板块,购买链接:点击进入购买VIP会员

JAVA高级面试进阶训练营视频教程

Java架构师系统进阶VIP课程

分布式高可用全栈开发微服务教程Go语言视频零基础入门到精通Java架构师3期(课件+源码)
Java开发全终端实战租房项目视频教程SpringBoot2.X入门到高级使用教程大数据培训第六期全套视频教程深度学习(CNN RNN GAN)算法原理Java亿级流量电商系统视频教程
互联网架构师视频教程年薪50万Spark2.0从入门到精通年薪50万!人工智能学习路线教程年薪50万大数据入门到精通学习路线年薪50万机器学习入门到精通教程
仿小米商城类app和小程序视频教程深度学习数据分析基础到实战最新黑马javaEE2.1就业课程从 0到JVM实战高手教程MySQL入门到精通教程
查看: 1043|回复: 0

Spark No FileSystem for scheme file 解决方法

[复制链接]
  • TA的每日心情
    奋斗
    2024-4-6 11:05
  • 签到天数: 748 天

    [LV.9]以坛为家II

    2034

    主题

    2092

    帖子

    70万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    705612
    发表于 2021-5-7 04:53:51 | 显示全部楼层 |阅读模式

    在给代码带包成jar后,放到环境中运行出现如下错误:

    Exception in thread "main" java.io.IOException: No FileSystem for scheme: file
    	at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2644)
    	at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2651)
    	at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:92)
    	at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2687)
    	at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2669)
    	at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:371)
    	at org.apache.hadoop.fs.Path.getFileSystem(Path.java:295)
    	at org.apache.spark.sql.catalyst.catalog.SessionCatalog.makeQualifiedPath(SessionCatalog.scala:115)
    	at org.apache.spark.sql.catalyst.catalog.SessionCatalog.createDatabase(SessionCatalog.scala:145)
    	at org.apache.spark.sql.catalyst.catalog.SessionCatalog.<init>(SessionCatalog.scala:89)
    	at org.apache.spark.sql.internal.SessionState.catalog$lzycompute(SessionState.scala:95)
    	at org.apache.spark.sql.internal.SessionState.catalog(SessionState.scala:95)
    	at org.apache.spark.sql.internal.SessionState$$anon$1.<init>(SessionState.scala:112)
    	at org.apache.spark.sql.internal.SessionState.analyzer$lzycompute(SessionState.scala:112)
    	at org.apache.spark.sql.internal.SessionState.analyzer(SessionState.scala:111)
    	at org.apache.spark.sql.execution.QueryExecution.assertAnalyzed(QueryExecution.scala:49)
    	at org.apache.spark.sql.Dataset$.ofRows(Dataset.scala:64)
    	at org.apache.spark.sql.SparkSession.baseRelationToDataFrame(SparkSession.scala:382)
    	at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:143)
    	at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:122)
    	at org.elasticsearch.spark.sql.EsSparkSQL$.esDF(EsSparkSQL.scala:52)
    	at org.elasticsearch.spark.sql.EsSparkSQL$.esDF(EsSparkSQL.scala:66)
    	at org.elasticsearch.spark.sql.package$SparkSessionFunctions.esDF(package.scala:58)
    	at SQLAttack$.getDayDataByES(SQLAttack.scala:51)
    	at SQLAttack$.main(SQLAttack.scala:25)
    	at SQLAttack.main(SQLAttack.scala)
    

    这是因为 HDFS 的配置文件没写好,更改方式如下:

    找到自己项目保存库的位置,依次点击:

    File -> Settings -> Build,Execution,Deployment -> Build Tools -> Maven -> Local repository

    这里的 Local repository 就是项目保存库的位置。在这里面依次打开文件位置:

    \repository\org\apache\hadoop\hadoop-common\2.7.2\

    rar 打开 hadoop-common-2.7.2.jar ,把里面的 core-default.xml 下载到本地,打开添加更改,在 <!--- global properties --> 添加如下字段:

    <!--- global properties -->
    <property>
            <name>fs.hdfs.impl</name>
            <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>
            <description>The FileSystem for hdfs: uris.</description>
    </property>
    <property>
            <name>fs.file.impl</name>
            <value>org.apache.hadoop.fs.LocalFileSystem</value>
            <description>The FileSystem for hdfs: uris.</description>
    </property>
    

    将更改后的 core-default.xml 重新放入 hadoop-common-2.7.2.jar 中,再次打包就可以运行了

    哎...今天够累的,签到来了1...
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|小黑屋|Java自学者论坛 ( 声明:本站文章及资料整理自互联网,用于Java自学者交流学习使用,对资料版权不负任何法律责任,若有侵权请及时联系客服屏蔽删除 )

    GMT+8, 2024-5-14 23:22 , Processed in 0.064772 second(s), 29 queries .

    Powered by Discuz! X3.4

    Copyright © 2001-2021, Tencent Cloud.

    快速回复 返回顶部 返回列表