Visual Studio Code添加了对SQL Serv

发布时间:2020-08-16 20:06:30 作者:qq5d2d9e539cdbb
来源:网络 阅读:403

近日,微软宣布Visual Studio Code支持SQL Server 2019大数据群集PySpark开发和查询。它为Azure Data Studio提供了补充功能,可供数据工程师在数据科学家的数据探索和试验之后编写和生产PySpark作业。Visual Studio Code Apache Spark和Hive扩展使您可以享受跨平台和增强的轻量级Python编辑功能,它涵盖了有关Python编写、调试、Jupyter Notebook集成以及类似于交互式查询的笔记型计算机的场景。

通过Visual Studio Code扩展,您可以享受本机Python编程体验,比如linting、调试支持、语言服务等。您可以为PY文件运行当前行、运行选定的代码行或全部运行,可以导入和导出一个.ipynb笔记本,并执行类似于“运行单元格”、“在上方运行”或“在下方运行”的查询笔记本,可以享受像笔记本电脑一样的交互式体验,其中包括您的源代码和标记注释以及运行结果和输出,可以在交互式结果窗口中删除不需要的部分、输入注释或键入其他代码。此外,您还可以通过matplotlib(如Jupyter Notebook)以图形格式可视化结果。 与SQL Server 2019大数据集群的集成使您能够快速向大数据集群提交PySpark批处理作业并监视作业进度。

主要功能亮点

1、您可以链接到SQL Server。该工具包使您可以连接PySpark作业并将其提交到SQL Server 2019大数据群集。

2、Python编辑。开发具有本地Python创作支持(例如IntelliSense、自动格式、错误检查等)的PySpark应用程序。

3、Jupyter Notebook集成。导入和导出.ipynb文件。

4、PySpark交互式。运行选定的代码行,或运行诸如PySpark单元格之类的笔记本,以及交互式可视化。

5、PySpark批处理将PySpark应用程序提交到SQL Server 2019大数据群集。

6、PySpark监视。与Apache Spark历史记录服务器集成以查看作业历史记录、调试和诊断Spark作业。

如何安装或更新

首先,安装Visual Studio Code,然后下载适用于Linux或Mac的Mono4.2.x。然后转到Visual Studio Code扩展存储库或Visual Studio Code市场并搜索Spark,获取最新的Apache Spark和Hive工具。

推荐阅读:
  1. 将PySpark导入Python的方法
  2. mac安装scrapy并创建项目的实例讲解

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

pyspark visual studio code visual studio

上一篇:为什么网站安装SSL证书如此重要?

下一篇:金融服务业如何在数字化时代攀登新的增长曲线

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》