赞
踩
conda install pyspark
pip install pyspark
Solving environment: failed with initial frozen solve. Retrying with flexible solve
可先升级conda,在Anaconda Prompt执行conda update指令
conda update
然后会执行打了更新包,耐心等待
更新完成以后,再执行一遍conda update --all,然后再安装包就没有问题了
conda update --all
Exception in thread “main" java.lang.UnsupportedClassVersionError Unsupported major.minor version 52.0
原因是jdk格式不对,52.0表示JDK格式需为1.8版本
cmd查看本地JDK版本`
java -version
发现版本为1.7,需将版本升级到1.8版本,可下载1.8版本JDK,官网下载地址:https://www.oracle.com/java/technologies/downloads/archive/
①删除原有版本SDK文件,然后将新版本将其解压到原有的jdk文件夹下,然后修改系统变量
JAVA_HOME 为JDK的文件夹地址,path为jdk的bin文件夹地址,示例:jdk所在位置为:
C:\Java\jdk1.8.0_144
② ②修改注册表
win+R 然后输入regedit
修改HKEY_LOCAL_MACHINE\SOFTWARE\JavaSoft\Java Runtime Environment的子项,将JavaHome及RuntimeLib值设置为JDK的jre文件夹位置
③查看java的位置,发现java.exe不仅在jdk文件夹中,还在System32里,需删除system32的java.exe ,javaws.exe,javaw.exe文件
where java
然后查看java版本,发现已更新至1.8版本
以上报错都处理后,可顺利安装pyspark,安装成功如下图:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。