有个问题想请教下。SparkSQL的sql接口读取数据或者jdbc接口读取数据分2种,一种是没指定分区字段的,另外一种可以指定分区字段。问题是很多业务场景,表是没有ID数字字段、或者日期字段的,像加载近N年的数据、近N个月的数据,或者N个客户的数据,我们没法估算也没法使用日期做分区加载,没法指定使用指定分区字段如表中的主键数字字段来加载 ,这样子得到的一个Dataset.rdd分区数可以看到是=1的,那么使用这个rdd去计算,我们是否要重新分区再拿去做join操作或者map操作。这样子合理还是不要重新分区了或者说用什么办法,做指定字段来分区加载,不用考虑重新分区再计算?如果计算逻辑就是做一些表读取然后按照客户进行分组做一个map这种简单的ETL业务逻辑呢还有必要使用SparkSQL来完成吗或者说SparkSQL适合这种简单业务的ETL使用不?