找回密码
 立即注册

QQ登录

只需一步,快速开始

请上传宽度大于 1200px,高度大于 164px 的封面图片
    调整图片尺寸与位置
    滚轮可以放大缩小图片尺寸,按住图片拖动可调整位置,多余的会自动被裁剪掉
取消
haigang(uid:91648)
职业资格认证:FCAA | FCJA | FCBP | FCRP
以“简”为本-帆软零代码开发工程师认证之旅
  一、为啥参加简道云零代码学习       我是公司信息部的负责系统开发和运维业务,此前我所在的团队的应用开发的模式以代码+数据为的传统IT开发模式,即在业务需求明确后IT人员才会跟进系统开发或变更。但随着业务需求地不断变化,需要IT部门对业务需求进行快速响应,这需要IT能实现快速搭建和部署应用系统的能力。在此业务驱动下我通过帆软论坛了解到帆软有一款围绕业务流程表单进行快速应用搭建的产品“简道云”,可以满足业务应用快速搭建和部署的要求。于是在今年报名参加帆软简道云学习班,并在5月通过了新版的简道云的FCP-零代码工程师的认证。        作为IT技术人员回顾我的简道云学习经历,我认为作为企业部署零代码平台关键驱动因素是企业应用需要敏捷化的开发和部署的驱动。传统IT开发流程是以数据为核心的代码编制,开发人员同业务人员的衔接不够紧密,因此IT部门开发的应用往往需要多伦迭代才能满足业务需求,这样反复迭代磨合的开发即耗时,且效率低。而帆软的简道云零代码开发平台核心思想是以业务流程为中心,通过可视化方式进行应用搭建,因此构建系统类似“搭积木”,这样降低了系统搭建的所需的代码编写和调试的难度,可以快速构建出满足我公司表单类业务线上闭环的需要。 二、简道云零代码开发工程师学习历程 我学习简道云,主要是依托帆软认证这个平台进行。首先,通过认证可以证明自己的零代码的技术能力。如果要从事公司内部的简道云实施项目,对简道云技术上掌握是必不可少的。同样,通过简道云学习班提升自己掌握简道云子表单、聚合表、数据工厂、智能助手等复杂功能的应用能力,学习班很多案例对我将简道云的功能应用到实际工作场景中起到很好的启发作用。每次课程结束后习题难度是由浅入深,我也从一个个习题中完成了简道云“小白”到“熟手”的蜕变过程。这里可以给打算参加简道云学习和认证的小伙伴一点提示,在学习简道云过程中一定要充分利用简道云帮助文档,简道云的帮助文档有很多案例和具体功能使用方法介绍,通过帮助文档学习可以提升自己解决实际使用简道云中问题。 三、参加简道云零代码工程师认证的心得 今年5月份是帆软的首次新版的认证。以前的简道云FCJP认证已经变成FCP-零代码开发工程师认证,这点打算参加认证的小伙伴注意下官网,考试流程同此前有些变化。 FCP-零代码开发工程师考试题目是1道,但是在考试过程中发现这道题目还是很综合的,1道题目所提出需求实现,覆盖了简道云大部分功能点。因此如果要参加认证,需要对简道云功能有充分理解和充分掌握后才能应对。  分享下本人的认证经验,在动手构建系统前一定要充分理解题目中背景需求和功能点,先画一个思维导图出来梳理下在将业务流程图画下,对题目所需构建的系统有个整体设计在进入到功能搭建阶段会比较容易点。正常情况应该是2天内完成,时间有点紧。 四、一些关于零代码的感言       近年来流行零代码开发模式使“全民开发”成为一种可能。零代码这种以业务流程为驱动的应用搭建模式必将加速公司业务的数字化变革的进程。同样,掌握简道云零代码应用的搭建技能将提升自身在职场的核心技能。相信简道云能将我们IT开发“化繁为简”,提升IT系统的应用价值。也预祝各位小伙伴们能早日通过FCP-零代码工程师的认证丰富自己的职业技能。      
【九数云·用故事板说话】建筑用能分析月报
1 数据故事背景       随着“碳中和”概念的推进,通过建筑能耗数据分析提升建筑低碳运行能力是目前建筑运维行业的一个技术发展趋势。推进建筑节能,有利于国家“碳中和”战略的达成,对于建筑管理方可以通过建筑运行节能优化建筑运维费用的投入。上述这些目标达成都依赖于建筑运行能耗数据分析结果的支撑。因此本数据分析报告旨在通过对建筑运行系统的能耗数据采集的结果,通过“九数云”探索基于在线数据分析平台进行建筑能耗数据可视化技术途径。   2 数据故事内容        通过九数云的Excel 数据上传功能将原始能耗数据上传到平台。             九数云的数据血缘关系可视化展示     九数云文档模式下的数据故事展示-自动生成数据分析步骤的可视化输出     九数云文档模式下的数据故事展示-数据图表“所见即所得”方式的利用   建筑能耗分析故事板在线链接 建筑能耗分析月报   3 九数云故事板的使用心得      通过九数云故事板功能对建筑能耗分析报告编制过程中图表制作和数据文档制作过程进行融合,提升建筑用能分析报告编制效率,简化用能分析报告的制作过程。 希望故事板功能进行深化和完善。        
FCRP备考经验分享-“炼数成金”过程中的巡径、探索、顿悟
一 前言 从2017年信息部采购FineReport 8 用于公司报表平台开发以来,我已经用FineReport完成了生产监控报表、项目数据大屏、项目数据报表平台3数据报表项目的交付工作。在项目开发过程中,我也逐渐从一个帆软产品的“小白”成长为对FineReport 产品有些了解的报表开发人员。为了检验自己使用FineReport 能力,我报名参加了FineReport 2021年09期的培训班,并在2021年12月参加了FCRP认证考试,并顺利获得了FCRP资格认证。       二、巡径 首先,要解释下什么是FCRP认证。FCRP认证是帆软组织的针对Finereport 产品的认证,分为FCRP和FCRP-D 2种,FCRP 更偏向企业用户,FCRP-D侧重于项目交付实施。我参加FCRP认证目的无非有2个,一是,提升自己使用FineReport 工具的能力,满足公司内部报表开发的需求。二是,帆软FCRP认证难度比较高,FineReport在国内用户群体较多,希望通过FCRP学习班,获得FCBP资格证书,取得同道的认可。 其次,参加FCRP 学习和认证,也是想给自己一点学习压力和动力,通过认证备考过程提升我掌握FineReport功能的能力,平时工作时候基本上做CPT报表文件都是固定套路没有变化,但在学习班中题目会设置些条件,例如,不能通过SQL数据集过滤,要通过模板组件过滤、公式过滤等,通过这些约束条件使我逐渐掌握如何依托Finereport 软件自身功能实现报表的功能点。总之,FCRP题目主要是围绕Finereport 公式、层次坐标、决策报表、JS脚本去考察的,希望这次我备考FCRP巡径历程能帮助未来小伙伴们顺利通过FCRP认证。   三、探索    总体上将FCRP 考试内容还是侧重在产品使用能力上,特别是公式、层次坐标、父子格这类一定会在考试中以某种形式出现。因此只要能灵活应用公式、理解父子格关系、攻克层次坐标难点基本上FCRP 认证就能通过。通过这次FCRP 备考过程我个人感觉层次坐标的确是个难点,首先它概念抽象,并且教程中给出的例子也是难懂。因此我在搞层次坐标这节课时候重点听、认真做练习,习题难度很大,其他章节习题我2天就做完,层次坐标题目我搞1周时间才将3道练习题搞通。虽然在层次坐标应用上探索很长时间,但事后回想层次坐标这样搞一遍的确很通透,以前做报表环比、同比这类指标时候,我需要在SQL中计算好在报表模板中实现,掌握了层次坐标后通过父格和子格关系引用,就可以实现此前需要花费很多时间写SQL来实现的功能,提升了我开发报表的效率。FCRP主要是考核不仅是对Finereport单个功能点考核,也会涉及到多个功能点综合应用考察,所以参加FCRP培训还是很有必要的,培训班中如果遇到冥思苦想都无法解决的问题,群里老师和助教会给出提示分析解答思路,节省自己摸索的时间。   四、顿悟 FCRP考试需要2天内完成5道题目,如果没有对Finereport 有充分熟悉情况会比较难。所以建议各位小伙伴要按照培训班习题来反复复盘熟悉各类单元格公式,层次坐标等知识点,但具体操作步骤不必死记硬背,虽然题目中的公式看上去很复杂,但实际上是几个基础公式综合应用,解题的思路是一种思维方式的顿悟,实现效果即可。最后,我想对给位即将参加FCRP认证小伙伴们说,对于每位参加FCRP认证小伙伴们,他们的巡径、探索、顿悟的历程都会不同。但FCRP备考过程将是每个人的一段宝贵经历。通过FCRP备考过程的磨炼各自“炼数成金”的技能,祝大家都能顺利通过FCRP认证!
京东高达商品销售分析
一、背景介绍    本数据分析案例,基于对京东高达商品的销售数据分析,从店类型、商品销售价、热销商品排名、门店销售排名、高达商品销售价分布特征分析下京东高达商品销售特征。  二、分析思路 2.1 数据来源 2.2 数据字段说明: 序号 字段 数据类型 1 搜索关键词 varchar 2 商品名称 varchar 3 商品SKU varchar 4 商品链接 varchar 5 封面图链接 varchar 6 价格 number(10,2) 7 评价人数 int 8 评论链接 varchar 9 商家店名 varchar 10 店铺链接 varchar 11 标签 varchar 12 是否广告 varchar 13 页码 int 14 当前时间 datetime 15 页面网址 varchar   2.3 分析维度和指标构建       2.4 数据准备 导入高达数据集,通过自助数据集新增门店类型字段   三、数据可视化分析结果解读 1 店类型分析 通过柱形图在价格和商品数量2个维度显示京东销售高达门店特征。专营店商品SKU数较多,价格在500元。旗舰店SKU数不多但是商品价值高。         通过饼图展示评论用户数集中在专营店,说明京东高达商品销售门店集中的专营店这样销售模式。   2 价格与潜在客户 从价格与评价人数的关系分析上,可以发现评论用户大多集中在价值400-500元的高达商品上。   3 热销排名榜 从热销商品分析上,排名前20 高达SKU大部分是专营店业绩创造的。       4 定价特征 从定价策略分布可以看出超过50%的高达SKU在京东价格是200元-500元区间 四、分析结论 从上述可视化结果可以形成如下分析结果: 1 从业绩来源分析,高达在京东销售业绩的86.28%是有专营店模式贡献的。 2 从销售策略分析,专营店的价格和品类比较全,旗舰店走高端路线相对售价较高。 3 从消费者视角分析,消费者比较关心1000元以下的高达商品 4 从产品定价策略分析,50%以上高达商品在专营店、旗舰店和自营店模式下,其单价集中在200元-500元这个区间。  
【2021年终故事会】用数据决策、用数据创新
【2021年终故事会】用数据决策、用数据创新       时光飞逝、岁月如梭,转眼又到年终季,回眸2021年我同帆软已经相识了4年,从不了解帆软产品到熟练使用帆软产品,在将业务数据需求用帆软产品实现,对数据应用项目的实践理解由浅入深,其中一个个数据分析项目成功上线成为我职业生涯的美好回忆,在此非常感谢帆软社区小伙伴对我的支持和帮助。 4年前因为我公司数字化转型的需要,我公司在数据分析项目选型过程中选择FineReport 作为数据决策平台的开发工具,将生产系统的报表迁移到帆软报表平台上,并在此基础上进行数据大屏、数据分析深化工作。 一、初遇帆软: 记得我第一个同帆软相关项目是公司数据报表平台项目,当时我所在团队在生产系统中已经开始使用Echart进行生产系统数据可视化应用,但经过一段时间的开发,发现我们信息部开发的报告开发和使用效率很低,而且报表管理比较“碎片化”不能实现“集约化”管理优势,因此在同事介绍下了解到国内报表工具龙头帆软公司FineReport 产品,并通过帆软社区公开课程熟悉了FineReport产品功能,并建议公司采购FineReport 作为信息部的数据报表平台的基础开发工具。初期只是简单将生产系统二维报表迁移到帆软平台上,刚开始认为Finereport是新工具开发需要时间去适应新的开发环境,但因为Finereport 类Excel 设计,开发的效率要比Echart要高很多,而且Finereport自带的数据决策平台可以使开发人员在“低代码”环境下通过配置完成报表发布和权限分配工作,这个功能对报表开发人员相当的友好,提升公司报表开发的周期和效率。通过首个Finereport项目的落地使我公司肯定了这种基于报表工具上进行内部报表开发的模式,为此后我公司的数据分析项目提供基于帆软工具实现的技术路径和方式,因此项目也获得公司管理层的肯定。   二、学会用数据思考       现今我公司处于数字化转型阶段,通过数据驱动公司业务决策精准的执行,"用数据说话、用数据决策、用数据管理、用数据创新”业已成为我公司数字化转型的重要目标。面对公司的要求,我们信息部在2021年启动项目数据大屏工作,将零散报表数据整合到一张数据大屏上进行项目绩效的集中展示。在这个项目中我的团队应用到帆软的决策报表功能,随着帆软将决策报表功能进行组件化工作,使我们这些最终用户的制作大屏效率有了很大的提升,此前需要1周才能完成大屏设计、开发、调试工作。在大屏组件复用的状态下3天内就可以完成,满足了公司快速多变的数据大屏的需求。在此也要感谢帆软Dora老师的系列课程,使我们这些大屏开发的小白成长为大屏开发的熟手。下面是我们今年开发项目绩效数据看板,从需求提出到设计完成就用了2天,是不是效率很高呀。   三、提升数据的价值 作为一家物业服务公司,不仅需要从每个服务事件中获得信息,还应将分析每个服务事件根本原因,通过帆软数据工具可以使我们公司从海量的用户服务数据中提炼出有价值信息,引发公司对数据价值的高度敏感和重视,使得公司业务模式和服务模式上创新和变革。而帆软社区上的公开课程和任务可以帮助我们这些企业用户快速了解和掌握最新的数据应用的方法和技术应用途径,进而挖掘企业内部数据价值提升数据分析项目的投资价值。在这里非常感谢社区内提供的FineReport和FineBI的这些公开教程或资源,它们对我的帮助非常大,使我受益匪浅。下面是我学习数据大屏过程中一些社区的教程,有兴趣小伙伴可以参考下:   结束语      我们即将进入2022年,在新的一年中,我衷心希望社区能越办越好,而我们这些番薯在未来的2022年中从社区中能收获更多知识和技能,开启各自的挖掘数据价值的历程。    
【FR11功能体验报告】- B/S端修改布局&新自适应效果
  场景1 B/S端开发者调试 在Finereport决策报表大屏设计时,对数据大屏布局经常需要在预览模式和设计模式下进行切换,导致大屏界面调整面临反复的调整工作。在FR11的“B/S端开发者调试”新功能可以在所见即所得方式进行数据大屏的设计,方便数据大屏的设计和调整工作。 测试该项功能发现只有在“绝对布局”情况下,可以在开发者界面中操作各控件的位置和大小。“自适应布局”下无法操作,不知道这是不是个问题。    图1 将决策报表调整到新版模式 图2 在开发者模式下在浏览器端调整数据大屏控件位置和大小,这个界面同fineBI 很相似,很容易上手。    图3 在进入开发者模式修改后,决策报表会设定为“锁定”状态。 图4 浏览器端调整后结果直接可见   场景2 决策报表新自适应 过去FR数据大屏为了适应不同分辨率的需要开发不同分辨率的决策报表,FR11的自适应的模板可以自动适应不同屏幕分辨率的浏览器,展示出与设计相符的效果。   1 页面比例在100%情况 2 页面比例在80%情况        3 页面比例在150%情况 在3种页面比例下,FR11的新自适应功能都很好调整决策报表控件比例。 产品体验心得: FR11在B/S端开发者调试、决策报表新自适应这2个功能上,提升还是很大的,可以方便数据大屏的开发效率,如果在B/S端开发者调试上能优化下浏览器端的操作体验会更好。    
【FR11功能体验报告】- 开放平台插件
测试FineReport 11的开放平台插件。这个插件功能的目标是将业务数据统一管理,通过WebService API形式进行调用,这个产品功能定位有点类似将FR作为一个数据中台,提供数据服务接口供第三方应用调用。这次测试是将报表模板数据集通过开放平台的API发布为公开的WebService 调用方式。 测试过程 第一步:定义客户数据集模板 第二步:FR11决策平台-管理系统-开放平台中创建API services 第三步: 定义Data Services API 参数和属性   第四步:调用Data Services API   产品体验心得: FR11 在即有产品功能基础上将模板数据集进行WEB Services封装,方便了FR开发人员快速向第三方系统提供标准基于WEB的数据开放接口。这样FR11 服务器 就可以拓展为数据微中台概念的产品服务提供给第三方调用,这种模式非常符合目前IT系统架构发展潮流。通过体验感觉这个产品组件还处于初期阶段很多功能还需要完善,特别是数据调用安全和文档说明需要加强。    
【FR11功能体验报告】- JS API
体验下FineReport 11的JS API。感觉这次11.0在JS的接口调用上做了更多优化,接口标准更规范了。同时原先在老版本中需要通过JS Script 实现的一些场景功能,在FR11 JSAPI 中主要通过简单的API调用就可以实现,提升开发效率。 为了测试FR 11的JS API功能以鼠标悬浮变色功能为例做了新老方法比较: 老方式:   FR11 JS API     产品体验心得: FR11在JS API封装上还是做了很大提升和改进,原先要大量JS 脚本实现的功能,在FR11的JS API 下只用一条调用语句就实现了,不足是貌似在FR 11鼠标悬浮变色实现时出现一些瑕疵,当鼠标移出报表内容后,所有行都变色了。   附上FR11 鼠标悬浮变色模板文件供参考:鼠标悬浮变色-FR11.rar (2.69 K)
【FR11功能体验报告】-报表新前端和控件样式
      体验了FR11报表界面参数新样式,通过图1(经典),图2(FR11)对比觉得FR11扁平化的风格更加fashion些,符合目前主流的UI设计理念,简化操作上视觉干扰。但经典样式也有其适用场景例如到文本框、下拉列表框这类用于内容交互的空间,经典样式可以明显表明此处有交互操作。 图 SEQ Figure \* ARABIC 1 经典控件样式   图 SEQ Figure \* ARABIC 2 FR11 新样式     Bug: 测试下使用新插件导出,貌似PDF和Word目前都不可用。   产品体验心得: FR11报表界面参数新样式这个UI上改进总体上令人满意的,在具体使用上要看用户是更偏好经典样式还是扁平化样式。
【FR11功能体验报告】-数据准备-ETL作业
本次测评了FR11中新功能ETL,共测试2个场景下的ETL的使用。   场景1:从原始数据中提炼数据到聚合表中   第一步 在目标数据库构建表结构 第二步 在目标表中插入数据 第三步 将目标表数据聚合后插入目标聚合表中   在实际报表开发中,开发人员需要从源表中提炼数据,并通过聚合函数到聚合表中作为报表开发数据准备工作。这种场景下有大量SQL脚本需要进行批处理操作。通过ETL方式可以将分散SQL脚本集中可视化管理,简化数据准备工作。     场景2:从生产库中抽取数据到报表数据库   在报表数据准备过程中需要从源系统抽取大量数据到报表数据库中,通过数据同步功能将源表内容抽取到目的表中,因为数据抽取是大量Select 操作,通过虚拟节点可以使2个抽取节点并发执行,优化线性任务调度的时间耗费。       产品体验心得: ETL功能总体上可以满足基本的报表数据准备工作,性能也能满足使用要求。 建议增加如下功能 1 在ETL设计中增加行列转置 2 按条件聚合到不同聚合表 3 增加并发任务开始和结束判断条件 编辑于 2021-9-28 21:04
【2021夏季挑战赛】台风大数据可视化分析
1. 选手简介 个人选手版: 1.1. 个人介绍 帆软社区用户名:haigang 职业简介:一名数据分析人员,现在在国企信息部从事数据分析工作,平时主要工作内容是获取系统原始数据进行报表和数据大屏的制作,也会参与一些数据分析专项研究工作,如文本挖掘、知识图谱构建之类,希望通过这次交流可以同更多同行交流和探讨,提升数据分析技能。   1.2. 参赛初衷 评估下自己对FineBI的掌握程度,通过FineBI的学习掌握探索式数据分析的要点。通过台风气象数据的获取提升非系统数据源数据的取得能力,通过台风数据可视化分析过程锻炼自己运用FineBI 图表库进行可视化分析的能力。     2. 项目介绍2.1 项目背景介绍 台风是对热带气旋的一个分级,不同程度的台风会带来不同的危害。从台风活动时间上看,西北太平洋和南海一年四季都可能有台风生成。在我国台风登陆的时间范围也极广,除了1月至3月无台风登陆,其他月份均有台风登陆的情况。台风数据可视化分析对中国台风网1949年-2020年期间的台风数据进行了回顾性分析,形成关于西北太平洋地区台风对我国的影响、台风地域路径特征、台风活跃时间特点、台风年际变化等台风气象数据的见解。期望通过本次台风数据可视化分析,探索对台风这样的气候大数据可视化分析的技术路径。 2.2 数据采集和处理 1、台风可视化数据来源为中国台风网 http://typhoon.weather.com.cn/ 2、按F12,打开开发者工具,在台风列表中选择我们所需要查看的台风,通过抓包结果分析网页台风JSON数据返回,如图1所示。   144768       图1 台风数据网页分析结果 3、 根据原始网页结构分析,构建台风数据爬虫Python代码,如图2所示   144769 图2 台风数据获取代码 4、台风编号规则: 我国从1959年起开始对每年发生或进入赤道以北、180度经线以西的太平洋和南海海域的近中心最大风力大于或等于8级(17.2米/秒)的热带气旋(强度在热带风暴及以上)按其出现的先后顺序进行编号。编号由四位数字组成前两位表示年份,后两位是当年风暴级以上热带气旋的序号。例如 2101 杜鹃 表示是2021年第1号台风命名为“杜鹃”。 5、 运行台风爬虫代码,形成1949-2020期间所有的台风路径信息和台风登陆信息,如图3所示。   144770 图3 台风数据爬虫结果   2.3 台风数据分析思路2.3.1 台风数据可视化分析思路1447712.3.2 台风基础数据说明    台风路径信息             序号    字段名称 字段类型 说明 1 台风到达时间 Datetime 台风达到时间 YYYY-MM-DD  H 2 台风到达地经度 Number 东经  (0.1°E) 3 台风到达地纬度 Number 北纬  (0.1°N); 4 台风中心气压 Number 中心最低气压(hPa); 5 台风风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s).    WND=9 表示 MSW <  10m/s,    WND=0 为缺测. 6 未来移向 Number   7 未来移速 Number   8 台风编号 Number 国际编号, 年份的最后两位数+两位数的编号; 9 台风名称-英文 Varchar 台风英文命名 10 台风名称-中文 Varchar 台风中文命名 11 台风状态 Varchar Stop –台风已经停止追踪            台风登陆信息             序号    字段名称 字段类型 说明 1 登陆时间 Datetime 台风登陆时间 YYYY-MM-DD  H 2 登陆点经度 Number 台风登陆点东经 3 登陆点纬度 Number 台风登陆点北纬 4 登陆点气压 Number 中心最低气压(hPa) 5 登陆点风速风力 Number 2分钟平均近中心最大风速(MSW,  m/s). 6 登陆点未来移向 Number   7 登陆点未来风速 Number   8 登陆点信息 Varchar 台风登陆位置 9 台风编号 Number YY+序号 10 台风名称-英文 Varchar 台风英文命名 11 台风名称-中文 Varchar 台风中文命名                     2.4 台风气象数据探索式分析报告制作2.4.1 台风数据探索式分析思路 数据报告用于展现西北太平洋地区的台风路径、登陆点、强度、风力等信息,因此采用数据地图形式将帮助报告阅读者理解上述台风关键信息。对于历年台风强度和台风生成次数主要以趋势折线图、柱状图的形式进行展示。在夏台风和秋台风对比分析上,主要按时序分析进行展现2个季节的台风特征的差异。 2.4.2 台风分析报告数据预处理 在FineBI数据准备模块,导入基础台风数据、台风登陆信息Excel文件,如图4   144772    图4 台风基础数据导入FineBI   从原始登陆信息内容中,提炼登陆点信息,如图5所示       144773   图5 数据准备提炼登陆点 对台风路径信息进行登陆时间类型转换、台风级别描述列新增,关联台风登陆信息构建台风数据事实宽表,如图6所示。 144774   图6 台风数据宽表 2.4.3 可视化报告布局设计 1、台风路径分析   144775 144776   设计说明:    台风路径信息展示采用流向地图形式,通过地图的流向信息展示历年台风路径规律。 通过月度折线图,分析台风月度活动规律。    分析结果:    在西太平洋地区,台风移动大致有三条路径。第一条是偏西路径,台风经过菲律宾或巴林塘海峡、巴士海峡进人南海,西行到海南岛或越南登陆,对我国影响较大。第二条是西北路径,台风向西北偏西方向移动,在台湾省登陆,然后穿过台湾海峡在福建省登陆。这种路径也叫作登陆路径。第三条是转向路径,台风从菲律宾以东的海面向西北移动,在25°N附近转向东北方,向日本方向移动。这条路径对我国影响较小。以上三条路径是典型的情况,不同季节盛行不同路径,一般盛夏季节以登陆和转向路径为主,春秋季则以西行和转向为主。      2、历年台风趋势分析   144777144778144779 设计说明:    折线图: 可视化展示1949-2020期间历年台风次数    柱状图: 可视化展示1949-2020期间历年台风平均风力强度    矩形图:热力可视化展示历年台风月度生成次数规律特征    分析结果:    从1949年至2020期间,60年代是台风生成的高峰,其中71年间最高峰出现在1964年当年共有37个台风编号。进入到90年代,台风生成次数趋势下降,共出现2个低谷,2020年仅有13次台风是71年来最少。同样从台风强度分析,进入到90年代,台风强度明显弱与60年代-70年代台风。从热力图上可以洞悉到7月、8月、9月是台风的高发季节。    3、台风登陆地特征分析 144780144781 设计说明:      通过经纬度构建台风登陆点、风力强度散点图,分析台风登陆点经纬度的数据特征。      通过柱状图直观分析台风登陆点的偏好。    分析结果:    通过可视化结果,我国的东南沿海地区是台风登陆热点地区:广东、海南、台湾、福建、浙江是防汛防台的关键点。    通过柱状图的可视化,西北太平洋沿岸地区国家:菲律宾、越南、中国、日本是台风登陆点的“热门” 4、台风发源地位置特征分析   144782   设计说明:      分析西北太平洋地区台风发源地位置特征。    分析结果:      通过散点图展示,西北太平洋上影响较大台风集中在东经120°至140°,北纬10°至20°之间的洋面上,基本上位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。 5、夏台风与秋台风的对比分析   144783 144784 设计说明:       通过时序分析台风高发季节(夏(6月至8月)、秋季(9月至11月))台风的特点。    分析结果:       在台风数量上和强度上,秋台风的指标比夏台风更高些,但秋台风登陆次数少于夏台凤,需要注意海洋上行使船只避开这些台风路径。在台风登陆次数上,夏台风略微超过秋台风,台风登陆期间会造成交通中断、航班停航、大风强降雨,因此夏台风期间要注意气象台台风警报信息,避免生命财产的损失。 6 台风周期特征   144785 设计说明:       基于时序分析的结果,分析下台风从生成到消亡的平均时间周期。    分析结果:       数据分析结果展示,从年代时序看过去71年统计每次台风平均周期在7-8天,60年代台风平均周期最长为10天,最近10年台风周期特征在6天之内。从月度特征分析,从6月到11月台风高发期的台风周期大约7天(约1周)时间。 2.4.4 台风可视化数据分析见解 根据中国台风网台风数据,对西北太平洋台风数据进行可视化分析,发现71年间西北太平洋地域台风发生频数整体呈下降趋势,台风活跃程度呈现明显的年代际变化,60、70年代台风发生频数较多,此后呈递减趋势,西北太平洋台风主要发生在6-11月,8月最多,台风起源位置分布大致位于我国南海中北部偏东洋面和菲律宾群岛以东洋面。我国的广东、福建、海南、浙江、台湾位于西北太平洋的沿岸地区,是台风登陆的热点地区,因此也是我国夏秋季防汛和防台的重点地域。     2.4.5 可视化结果输出 144786 视频介绍:Your browser does not support video tags.3.项目总结     数据可视化不等同于可视化分析。数据可视化仅仅是解决了数据展示问题,而数据可视化分析需要构建数据分析框架,通过易于理解的可视化方式,帮助报告阅读者认识和理解数据。FineBI 提供丰富的图表设计元素,提供了无限视觉可视化的可行方案,提升了数据分析报告开发效率。     数据准备工作是耗时的,FineBI 数据准备模块能够更快、更容易地合并和清洗所需分析的数据。一般基础数据源因为数据格式和字段类型差异需要在数据准备阶段进行统一和规范化。在台风数据可视化的分析过程中,台风到达时间、台风级别、台风登陆点信息通过Fine BI的自助数据集功能快速完成台风数据集准备提高了数据质量,快速获得数据分析结果,简化了数据准备的工作量。     探索式可视化分析在于通过“假设”“寻证”方式获取数据背后的含义。例如,在分析过程中假设夏季台风强度是最高的,但是通过数据时序展现的结果,发现秋台风的强度是最高的。探索式分析本质在于假设,通过数据来证明这个假设是否成立,往往这些基于分析假设可以发现一些意想不到的结果,需要通过数据寻证去证实背后的事实,而FineBI敏捷化数据分析模式非常适合数据探索的历程。   附: 1、在线模版查看:https://bisolutions.fanruan.com/webroot/decision/link/JYjp 2、在线模板编辑:https://t6ixa9nyl6.jiandaoyun.com/f/60ffc825cf5c0b00070ee662 (填写问卷,获取平台账号) 3、PDF原文件 【BI可视化夏季挑战赛】作品-台风大数据分析.pdf (1.73 M)
【打卡作业】决策报表模板美化实操演练
决策报表优化后的结果。 144472
超详细!8周备考FCBP考试经验分享
一、为什么要考FCBP证书先简单介绍一下我的背景。计算机网络专业,信息部门员工,目前负责公司报表平台运维。2018年11月份的时候我第一次接触到FineBI,开始对商业数据分析和数据可视化产生了浓厚的兴趣。2021年参加2104期FCBP培训,对FineBI软件的应用和数据分析方法有了一个快速的熟悉。2021年5月参加FCBP考试,顺利获得了资格证书。143969 二、决定参加认证考试的考虑首先,希望提升自己在商业数据可视化方面的能力,满足公司业务发展要求。而且帆软的FCBP认证难度比较高,在行业内有一定的知名度,同时帆软也非常鼓励社区的合作伙伴参加认证考试。获得了FCBP资格证书以后,虽然仍然需要不断的学习数据分析技能,但是它可以使我在使用FineBI进行数据分析工作时更有自信。其次,参加FCBP考试也是想给自己一点学习的动力和压力。通过认证的准备过程可以帮助我更全面的去了解FineBI这个软件,平时不常用到的数据加工建模、过滤控件和展示组件、仪表盘等功能盲区,在准备认证的过程中也都更深入的进行掌握活用。FCBP考试主要是为了促进认证人员对FineBI进行系统学习的一种手段,希望将一些这次我准备FCBP考试过程中最实用的考试经验分享给各位社区伙伴。虽然FCBP考试有一定的难度,但是只要认真准备跟着官方培训教程走,相信每个小伙伴都能最终成为FCBP! 三、对准备学习的同学的建议首先,不要小看FCBP认证考试。我是专职做数据分析工作,即使参加FineBI工程师培训,这次考试的时候有些考题也是思考很久才给出操作答案的。FCBP主要是考核对不仅是对FineBI软件的本身的操作熟练程度,而且也会涉及到数据分析案例的综合应用,所以即使对软件本身非常熟悉也会被考试题目要求囧到。所以为了通过FCBP考试,还是建议在考前参加FineBI 工程师培训,培训班的习题量很大且有难度,考试需要2天内完成6道题目,是有点压力的,通过培训班学习可以让你适应这样强度和节奏。我参加是下面这个课程有兴趣的可以参考下/course/BI/standard/?sqtj143970 我报名参加培训班学习,从开始到参加考试大概是用了8周的时间:第1周 数据加工建模第2周 图形语法设计第3周 OLAP多维快速计算分析第4周 仪表盘设计和数据可视化第5周 案例分析第6周 高阶布局和可视化故事第7周 FCBP模拟试卷第8周 FCBP考试我的学习计划中首先就是充分利用培训班提供的资源,掌握FineBI的核心概念和操作。我在3月初开始学习到5月初考试,这次系统的学习过程让我对FineBI有了更深层次的理解,以前始终有点没明白的过滤组件问题,在课程习题中进行应用场景的理解和消化。Tips:如果是零基础的话,建议在起步阶段选择参加一个线上或者线下的免费培训,并参加下FCRA的考试,可以更快速系统的了解FineBI的操作方式,然后在参加FineBI培训班的学习,可以达到事半功倍的效果。线上培训教程 https://edu.fanruan.com/video/58143971 FCBP考试中会涉及到一些平时不常用到的功能,比如数据建模过程中的数据准备需要多数据集关联、字段类型转换等等。如果不想在考试中太惊喜的话,一定要按照培训班习题来反复复盘,这样能大大提升通过考试的概率。不过我的经验是要理解数据分析方法和思路,对于具体操作步骤不必死记硬背,考试题目虽然有点难度但是都是在基础操作上的变换,如果思维通达的话是可以找到求解的路径的。Tips:如果在考试中对某个功能或函数不理解的话可以查询官方文档的。所以在学习过程中一定要学会官方帮助文档检索方法,这项技能一定要有。FineBI 官方文档地址:https://help.fanruan.com/finebi/ 143972 考前一周,我对培训班习题中的错题总结和复盘,归纳解题方法是考试通过中至关重要的环节。我在最后一周进行针对性的FCBP模拟题训练,感受一下考题的类型和思路。说实在的模拟题的难度和真实的考试还是有一定的差异的。我个人认为在实际考试中,一般做数据建模的题目时候普遍会有些不适应,因为如果没有IT基础要快速理顺数据比较难,而且其中几个数据源还需要一点点专业背景知识,需要脑筋转下才能做下去。Tips: 我个人总结的考试时候一定要看清题目的要求,熟悉数据案例题目提供背景信息,进行针对性的回答。 四 、对马上就要参加考试的小伙伴的提示对马上要参加FCBP认证的小伙伴来说,FCBP的考试流程一直都是认证考试中的一大亮点。考前我也了解FCBP考试规则,考试题目是周五17:00 发送,考试时间是2天,考试题目截图要全屏幕(包括系统时间也要截到)、考试题目操作关键步骤一定要给出、考试题目不能公开交流等。所以各位准备参加FCBP小伙伴一定要做好了充分的理解考试的规则。顺利考完并且通过啦! 五、FCBP考试环境的准备因为FCBP考试是在考试个人电脑上进行的,所以在考前一定要在自己电脑上准备好FineBI安装,建议不要选择最新版本,因为新版本可能同培训班版本不同,操作习惯上可能会有差异,所以保险点选择同培训班教程所用版本一致为妥。电脑内存建议16G以上,FineBI会运行比较流畅。同时准备好一个视频录制软件,因为案例分析过程中需要你录制讲解分析的过程。 六、学以致用,做好数据分析工作做好数据分析工作,我想不能脱离业务环境去理解数据,数据分析本质是让我们更容易的理解数据。FineBI工程师培训班上学到数据分析的方法和FineBI使用技能,可以帮助我形成数据分析的思维能力。最后,感谢和FineBI的这次相遇,在学习班上我遇到很多同行提出的问题很有启发,祝大家都能顺利通过FCBP!!!
【产品评测】FineBI 5.1.10功能测评报告
测评功能1:新增自定义同环比功能,灵活计算区间同环比。 测评维度 维度说明 业务场景使用* 新增前: 如果要进行同比,环比操作,维度字段必须是日期型 新增后: 如果维度字段是非日期型的,可以通过指标字段的自定义设置比较区间,方便分析工作。 142966 功能交互体验* 自定义同环比功能对于非日期型维度比较非常实用,用户可以根据需要进行时间段比较。 产品功能建议* 建议在日期型维度上也增加自定义功能,因为有些日期同比不是按自然日进行的,例如:比较农历新年销售,今年的农历和去年对应时间区间是不同的。比较商品促销档期,促销前、促销期间、促销后的销售情况同样也不是严格按自然日进行的。 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆ 推荐度:☆☆☆☆ 日常分析过程会涉及到非自然日的同比/环比计算问题,有了这个功能可以按用户要求进行自定义。 注:标* 为必测维度,未标*可选测 测评功能2:【新增】增加时间过滤组件的【设置可选区间】。 测评维度 维度说明 业务场景使用* 在功能优化前,用户在时间过滤组件上选择需要在一个大大时间清单中选择,操作不便 在功能优化后,用户可以根据数据期间,在时间过滤组件中设置合适的时间区间,告知用户哪些时间区间是有数据的。如下图142968 功能交互体验* 功能和易用性尚可,但不大符合操作习惯,因为用户设计时间区间后就不要在过滤下拉列表中显示其他的时间区间了,这个优化是将可选时间区间高亮出来 产品功能建议* 可选时间区间若设置后,就不要显示其他的时间段了。这样可以避免在一个庞大的下拉列表中寻找清单内容。 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆ 推荐度 :☆☆☆☆ 评价理由:功能很实用,因为分析数据时间区间作为普通用户是不知道的,普通用户可能选择没有数据的时间段。 注:标* 为必测维度,未标*可选测测评功能3:【新增】Excel支持多sheet导入 测评维度 维度说明 业务场景使用* 1在功能优化/新增前: 在优化前系统只能导入第一个Sheet页的数据内容,如果有多个Sheet页需要分开导入,数据处理工作量大。 2在功能优化/新增后: 在系统5.1.10 中已经支持Excel 多Sheet也的数据导入工作。使用效果符合期望,如下图 142970142971 功能交互体验* Excel 多Sheet 页导入非常符合数据分析需要,因为现场业务EXCEL文件大部分是有几个Sheet页组成,批量导入可以节省大量的时间。 产品功能建议* 这个版本的批量更新是新建数据集时候可以批量导入,若能在更新和追加数据集时同样能支持导入会更好。例如下图142972 其他测评维度 批量导入时导致原先仪表盘数据丢失,如下图142973 综合满意/推荐度* 满意度:☆☆☆ 推荐度:☆☆☆☆ 目前此功能需要完善。 注:标* 为必测维度,未标*可选测 测评功能4:【新增】支持多tab组件支持在此组件内设置tab页签及对应页签内容,通过切换页签来实现展示不同内容。 测评维度 维度说明 业务场景使用* 新增前:若要从多维度分析相关数据时,需要在仪表盘上放置图表组件,这样仪表盘布局就比较紧张 新增后:采用Tab页后可以将相关分析放入到1个Tab页中,页面显的比较紧凑和简洁。如下图所示142975 功能交互体验* 此功能操作简单、符合操作习惯,满足设计需要。 产品功能建议* 1 可以在Tab页基础上,实现轮播的功能。 2 在Tab页基础上,实现类似“数据故事”播放效果 3 Tab页面导出到PPT,直接形成汇报PPT 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆☆ 推荐度:☆☆☆☆☆ 评价理由:功能非常实用,如果能导出PPT和轮播实现将更好。 注:标* 为必测维度,未标*可选测 测评功能5:【新增】支持自助数据集节点自定义名称、数据集添加备注l用户在制作自助数据集过程中,可以对数据集节点进行自定义名以及备注。方便理解每个节点的意义。同时用户可以对每个数据集进行备注,方便用户快速了解整体数据集的意义。 测评维度 维度说明 业务场景使用* 优化前:在自助数据集中每个节点名称是系统自动命名,在数据集设计完成后,过一段时间后可能就无法理解当时设计数据集目的和节点操作含义。 优化后:自助数据集可以添加备注,操作节点名称和备注可以自定义写入。这样方面IT运维管理。142977 功能交互体验* 此功能对IT后台运维比较有利,可以方便识别出数据集资源用途。 产品功能建议* 建议增加历史变更记录。方便后台进行数据集、仪表盘资源配置管理 其他测评维度 (可自由发挥对于此项功能的其他测评) 综合满意/推荐度* 满意度:☆☆☆☆☆ 推荐度:☆☆☆☆☆ 评价理由:日常分析过程中数据准备工作涉及到数据集会比较多,有了备注可以方便运维团队和团队多人协作。 注:标* 为必测维度,未标*可选测 编辑于 2021-4-10 09:42
【打卡作业】福布斯富豪榜可视化分析
一、数据分析目的 分析2015全球年度福布斯排行榜中的富豪数据分布情况,对不同国家、地区、行业、来源、性别、年龄等相关维度分析福布斯全球富豪人数、资产总额等数据规律。 二、数据分析规划 142747三、数据分析 3.1 福布斯富豪榜国家分布从地图分布结果看,在2015年福布斯富豪榜美国和中国提供富豪人数最多。从全球经济发展分析,随着中国成为全球第二大经济实体,其贡献富豪人数将呈上升趋势。1427483.2福布斯富豪榜富豪年龄与行业、业态的关系从2015年富豪榜数据分析发现大部分富豪的年龄集中在60-70岁,信息技术行业年龄较轻,时尚零售业、投资行业富豪资产额高于平均水平。从富豪从事的业态看,不动产、多元化集团、零售业比较容易产生富豪。142749 3.3 福布斯富豪榜行业分布 从饼图可视化结果看。时尚与零售、技术、投资业态占据将近4成的占比。 1427503.5 富豪性别特征从富豪性别分布看,大部分富豪集中在男性。一个事实是,男人更有可能创造新财富 1427511427513.6 全球和中国福布斯富人榜Top20从全球富豪榜Top20 分析,美国占据大多数。这表明全球财富主要集中在美国,如果解决收入过渡集中问题是一个值得思考的社会问题。 从富豪榜中国排名Top20 数据分析,中国在2015年房地产行业发展趋势向好,因此在富豪榜出现人数较多。同时信息技术业态的马云、马化腾、刘强东也在Top20之内。 142752 四、数据报告总结从2015年福布斯富人榜数据分析可以发现,全球财富越来越集中在少数人手里。逐渐增长的收入差距已经成为全球性的问题。在很多国家,在前1%富豪们的财富继续快速增长的同时,分配体系中的穷人甚至更高收入阶层财富的微弱增长使得收入差距问题变得日益严峻。142753
FineBI让数据分析思路更加清晰
我是一位IT部门员工,因为公司要实施数据分析项目所以接触到了FineBI,并报名参加2102期的FineBI学习班。通过这次学习班学习,我对FineBI功能和应用场景有了全新的认识。此前IT数据分析工作一直用代码和SQL解决原始数据要求,这次尝试使用FineBI的数据处理模块进行分析数据的准备工作刚开始的确很不习惯,认为效率比写代码低。通过老师的讲解和助教辅导我逐渐体会到这种“低代码”模式的制作数据分析报告非常适合IT部门进行敏捷化快速迭代开发。在学习过程中,伙伴们都非常的积极,不断的在群里提问,通过每周三的答疑我了解到许多此前我所不知道的FineBI的仪表组件、图表组件功能点,这些功能点可以提升我们业务人员进行自助分析的能力。对于课程内容,我认为FineBI学习班课程安排还是比较紧凑的,课程内容从数据准备、仪表板制作、数据报告编写从基础到精通逐步完成FineBI技能深化过程,非常适合入门者学习。有点小建议课程所使用版本有些老,部分实践习题上有些细节需要调整下。分享下本次学习班实践作业 142730 结合自己工作思考面对企业大数据大环境,为了提升业务能力,IT部门如何善用各类数据,以更有效、更精准、高效率的方式辅助管理部门做出各类关键业务决策。首先,Fine BI 是一套商业分析工具,为商业数据提供一个统一视图,并能通过实时更新的仪表板帮组企业随时掌控业务运转情况。 其次,Fine BI是一种业务分析解决方案,可让数据可视化并在整个组织中共享洞察并形成数据见解。本次学习让我了解如何使用更加丰富并且有吸引力的方式可视化数据。了解了Fine BI能否满足组织对数据可视化和分析工作的需求;如何提高效率等,对今后的工作产生更积极的影响。从学习过程回到我的实际工作中,我需要思考下我公司的数据分析工作的抓手在哪里?我对于业务的理解有多深入?我需要深刻理解“数据”的含义和“业务”的含义。将业务数据化,或者是用数据决策驱动业务。如何做好数据分析,我想不能脱离业务去看数据,而是要时刻从业务角度去理解数据。使用FineBI数据分析只是手段、方法和工具,形成数据思维能力恰恰是数据分析的本质。这次FineBI学习班过程将帮助我形成这些数据分析的基础认知。 编辑于 2021-4-13 15:17
【打卡作业】淘宝体育运动品牌商品分析案例
一、数据背景 分析淘宝店铺体育运动用品的价格,品牌,区域信息 二、数据建模 142325 三、数据分析淘宝运动商品店铺分布信息:从淘宝网经营体育运动类商品的店铺分布集中在上海,泉州、广州 142326品类分析:耐克、阿迪达斯、李宁、安踏的产品线品类较全142327 销量分析: 鞋类中跑步鞋、休闲鞋、篮球鞋销量较高 运动装备类以健身、跑步、篮球类居多 服饰类集中在T恤、运动长裤、健身服装为主142328 价格和销量相关性分析耐克在价格和销量做比较平衡,阿迪达斯走高定价策略,安踏国内品牌主要走高销量 低售价的行销策略。142329 商品售价分布淘宝运动类商品售价主要集中在0-499,499-899 区间142330 四、数据报告142331学习FineBI也有一段时间了,今天来总结一下哈,希望能帮助到你。 刚开始学习FineBI自己先看一些FineBI学习视频基本在帆软官网都有。 编辑于 2021-3-3 18:56
【2020冬季挑战赛】部门绩效分析报告
1.选手简介 1.1选手介绍帆软社区用户名:haigang职业简介:公司信息部运维经理,一枚码农。一直以来都喜欢数据分析,多年的实践使得在数据应用开发、数据处理等方面积累了一些经验。 1.2参赛初衷对BI比较感兴趣,真实地感受下使用BI工具对数据分析能力的提升。 1.3演示数据说明注意:本数据来源于生产系统基础数据,为了满足数据发布合规性进行数据脱敏处理。 2.场景介绍 物业维保数据是物业管理的重要数据,每天物业部门需要处理大量的服务请求。维保工单作为维保工作的内容载体是物业管理的核心数据资源,在分析维保绩效上发挥着不可替代的作用。公司原有的物业维保数据的应用还局限在时间、业主信息和服务类型几个固化报表上,缺乏对工单数据的多维数据动态展示。为了对物业部门进行2020年度维保情况进行量化评估,用FineBI 5.1制作本数据分析报告,作为2020年度本部门年度报告素材。 2.1 业务背景介绍 2.1.1业务背景本部门工作属于物业工程管理的范畴。日常工作包括定期设备巡检、用户报障处理、计划性设备维护等。目前日常作业已经完成信息化,物业工程日常维保记录存放在设备管理系统中,该系统存放着设备巡检、工单维保、设备台账、设备点位信息。每月物业部门需要提交巡检、工单的绩效总结报告给上级部门。同时需要通过工单数据分析发现维保工作重点并将此信息反馈给项目经理,用于改进物业项目服务质量。 2.1.2基础数据说明 工单信息 序号 字段名称字段类型说明 1工单日期date工单创建时间 2创建时间datetime系统建立工单时间 3工单编号varchar(20)工单流水号 4项管部varchar(10)项管部 5项目组varchar(15)项目 6业主区域varchar(20)业主单位 7工单来源varchar(10)自检、报障 8工单类型varchar(10)应求性维护、预防性维护 9工单状态varchar(10)已创建、处理中、完成、关闭 10工单内容varchar(100)维保内容描述 11报障人varchar(10)报障联系人 12服务类型varchar(10)服务专业(工程维保分类) 13大楼varchar(30)建筑位置信息,从空间信息中获取 14楼层varchar(30)建筑位置信息,从空间信息中获取 15实际达到时间datetime工单实际处理开始时间 16实际完成时间datetime工单实际处理完成时间 17实际工作时间Number从接单到确认关闭时间 18工单类别varchar(20)通过工单描述文本描述提炼 巡检信息 序号 字段名称字段类型说明 1项管部varchar(10)项管部 2项目组varchar(15)项目 3巡检日期date巡检任务创建时间 4巡检时间datetime巡检计划设置的开始时间 5时间段bigint巡检时间段1-24 小时 6星期varchar(10)星期一到星期日 7巡检任务varchar(20)巡检计划名称 8巡检期间varchar(10)巡检频度 9开始时间datetime实际巡检开始时间 10结束时间datetime实际巡检结束时间 11巡检状态varchar(20)已完成、未完成、进行中、超时 12巡检员varchar(20)巡检员 13补检数int根据巡检明细提炼 设备信息 序号 字段名称字段类型说明 1类型varchar(10)数据标识 2项管部varchar(10)项管部 3项目组varchar(15)项目 4设备分类varchar(20)暖通、给排水、强电、弱电等 5设备品牌varchar(20)设备铭牌信息 6设备名称varchar(30)从初始设备台账中获取 7建立时间date系统建立时间 8服务时间date设备开始运行时间 9安装时间date设备安装调试完成时间 10生产时间date设备出厂时间 11安装位置varchar(50)从空间信息中获取 12制造商varchar(50)从初始施工记录中获取 13供货商varchar(50)从初始施工记录中获取 14安装商varchar(50)从初始施工记录中获取 点位信息 序号 字段名称字段类型说明 1类型varchar(10)数据标识 2项管部varchar(10)项管部 3项目组varchar(15)项目 4修改人varchar(20)系统记录 5修改日期varchar(20)系统记录 6点位名称varchar(30)点位描述 7点位二维码varchar(20)点位二维码信息 8大楼varchar(20)点位所在大楼空间信息 9楼层varchar(20)点位所在楼层空间信息 10房间varchar(20)点位所在房间空间信息 2.2分析思路 2.2.1分析报告需要解决的问题 即有的固化报表维度单一,缺乏数据穿透能力。需要通过BI报表提升用户自主数据分析能力。 通过维保数据多维分析,洞悉物业维保工作的重点和难点,为维保质量的持续改进提供依据。 分析维保工作量集中在哪里,如何合理的安排维保资源,将维保工作有被动响应转为主动预防模式。通过业务分析,整理下物业维保数据应用的思维导图,如图1所示: 138485 图 1物业维保数据应用 2.2.2编制报告目的 量化物业维保的能力。 评价和考核维保业绩,揭示维保活动存在的问题。 挖掘维保作业潜力,寻求提高维保管理水平的途径。 分析物业维保工作的趋势。 2.2.3报告使用者需求 物业部:关心维保绩效、特征、发现维保工作的短板 业主方:关注评估物业维保服务能力和履行能力 设备商:侧重报障的专业和系统,用于改进产品质量 研究者:提供基础数据源,用于数据挖掘模型的构建 2.2.4分析指标 序号 分析类别指标名称指标说明 1 巡检巡检-已完成源系统标注为“已完成”巡检任务数 2 巡检-未完成源系统标注为“未完成”巡检任务数 3 巡检-已超时源系统标注为“已超时”巡检任务数 4 巡检-已补检源系统标注为“已补检”巡检任务数 5 巡检任务数巡检任务数=已完成+未完成+已超时+已补检 6 巡检完成率巡检完成率=(已完成+已补检)/巡检任务数 *100 7 工单工单-已完成源系统标注为“已完成”工单任务数 8 工单-未完成源系统标注为“未完成”工单任务数 9 工单总数工单总数=已完成+未完成 10 工单完成率工单完成率=已完成/工单总数* 100 11 点位点位数设备管理系统点位设置数(未删除) 12 设备设备数设备管理系统设备台账记录数(未删除) 2.2.5分析维度构建报告采用星型分析模型架构,采用工单事实表关联时间、组织、业主、工单特征、空间信息维度,实现多维数据集的构建,维度关系如图2 所示: 138489 图 2 维保分析模型示意 2.3数据整理 数据集的规模质量 数据集规模:数据集的范围为2020年度物业部门的维保工单数据、巡检数据、点位数据、设备数据属于人工输入数据,所以数据集的规模不是很大。 数据集质量:分析指标信息主要是维保工单绩效,涉及了维保趋势、维保热点、维保专业、维保来源等。本数据来源于物业设备管理系统,数据规范性较好。 业务架构:业务架构分为四层:数据获取、数据整合、数据处理、数据可视化分析。 系统架构:数据源MySQL;通过SQL数据集输出到Excel;在FineBI中完成分析样本数据的导入,最后在FineBI 仪表板中完成报告设计,最终通过模板发布功能完成前台发布工作。 2.4. 数据可视化设计 2.4.1可视化设计目标本报告基于设备管理系统原始数据进行可视化处理。需要从时间、维保专业、服务类别维度,清晰反应工单趋势、工单分布、工单占比关系,用直观的表现方式,减少用户数据认知的负担,提升管理者的决策效率。 2.4.2分析报告设计方案 排版布局:划分页面工单信息、巡检、设备、点位辅助信息,运用折线图、柱形图、雷达图、组合图等图表表达元素进行信息的可视化展现。 色彩搭配: 为了避免视觉刺激,报告使用浅色背景,让阅读者视觉有更好体验。 2.4.3 可视化报告布局设计物业维保数据分析,主要基于工单维保数据分析;巡检、设备、点位信息作为辅助性支撑分析主题使用。因此报表设计的风格采用如下UI设计,将主要信息集中在报表面板的上部,左侧显示以时间趋势展现为主,右侧以建筑信息维度分析工单特征,设计样式如图3,所示: 138490 图 3 分析报告设计样式 2.4.4可视化图表选择根据原始数据特征和分析的要求,在报告输出过程中需要呈现多维工单数据特征如,趋势分析(维保月度趋势)、占比分析(维保专业分布)、效率分析(维保耗时)、相关性分析(维保专业与楼层)等数据可视化报告输出要求,参考选择图表方法如图4所示,在物业维保数据分析图表可视化过程采用如下图表: 138491 图 4 图表选择方法 l 工单趋势分析-折线图 138492 设计说明:工单维保数据存在时间序列特征,因此采用折线图的形式呈现各楼层的月度工单量走势。 分析结果:受疫情影响1月至2月工单量偏少,从3月复工后开始逐步上升,其中2号楼工单量高于其他楼层,因此项目维保工作量集中在2号楼。 l 工单文本挖掘-维保热点词云 138493 设计说明:工单描述文本中包括很多维保专业关键字,通过词云提炼出维保热点信息。 分析结果:通过词云分析发现2020年度维保热点词汇在“照明”、“1号楼”,“车库”。 l 工单耗时分析-柱状图 138494 设计说明:采用柱状图对维保工单平均耗时按楼层分布排序,发现维保工作响应时间提升点。 分析结果:A栋保护建筑工单响应时间明显高于其他楼。 l 工单聚类分析-雷达图 138495 设计说明:通过雷达图进行工单数据按建筑空间维度聚类 。 分析结果:洞悉维保工作的重点在2号楼。 l 工单专业占比分析-柱状堆积图 138496 设计说明:柱状堆积图可以很好展示工单占比关系,按时间维度展开,发现维保工作改进点。 分析结果:通过可视化数据展示,可以发现“安防”“照明”工单量比较集中,业务提升点较多。 l 维保重点分析-帕累托图 138497 设计说明:对维保工作抓手进行描述,因此采用帕累托图进行分析。 分析结果:帕累托图可以很好展示管理上80/20原则,通过上图可以发现1号楼、2号楼、3号楼、5号楼是重点关注的对象。 2.4.5可视化输出结果基于Fine BI 5.1设计,最后输出的数据报告,如图5所示: 138498 图 5 维保分析报告 3.总结 结合本次BI报告设计过程,对于BI应用总结以下四点思考: 3.1.关于BI平台实施BI 上手不难,新手很快就可以作出1份数据报告,但BI在公司中的部署和应用是比较复杂的事情,因此培养公司的数据文化非常重要,信息部需要培训挖掘业务用户自主探索式分析能力,才能真正推动BI在公司的应用和发展。 3.2.关于BI数据准备BI可视化分析依赖基础是产系统数据完整性和可靠性,BI分析数据源面临复杂的数据环境包括SQL数据库、文本文件、Excel文件等,这些数据资源通过连接形成BI分析所用的数据集,因此信息部需要面临数据治理的问题。 3.3.关于BI可视化分析对于数据可视化分析工作关键并不是制作一张复杂的报告,而是设计出一张满足业务需求的报告。为了降低业务用户的阅读负担应该简化设计的界面,通过图表特征将数字特征信号放大。 3.4.关于BI 数据挖掘公司对BI数据集的用途集中在数据可视化应用,较少有通过脚本进行数据挖掘的案例,未来基于脚本BI+AI的应用将是未来数据分析主流。 140340
【数据追梦人2020】一个IT老兵的故事
一个IT老兵的故事 我是一位在数据分析岗位上干过了15年的老员工,非常有幸能在这里分享我的故事给大家听。 初始FineBI 5年前我来到目前工作的单位从事IT运维管理。在工作中发现公司数据应用能力不高,处于此前一直在干报表业务的经历,开始公司报表平台建设工作。通过身边朋友介绍了解到帆软BI产品。作为一个以前从未用过BI产品的老IT,看到业界对FineBI的评价,于是从帆软的网站上下载了FineBI试用。作为此前一直通过SQL Report的制作报表的IT老兵。在一开始接触到FineBI工具 突然间感觉自己不会做报表了,自己已经习惯通过代码获取数据了,类似FineBI那样通过维度、层级、公式来进行数据可视化工作有点不大适应。在之前的工作经验,我已经明白BI应用对一个企业业务发展的重要性,BI的自主式分析能力将给IT部门的数据应用项目带来本质的提升。于是带着一份对数据分析的热情,我开始一段FineBI的学习历程。 我的第一个FineBI仪表板 为了在公司推动BI的使用,我这位老兵作为试水者开始一段FineBI学习过程中。我的FineBI学习过程是从帮助文档开始,通过帮助文档我了解FineBI的体系架构。同时帆软为了帮助用户掌握FineBI 在帆软的网站上提供培训视频、社区讨论、产品认证这些对我的帮助很大。特别是,社区中定期会有些任务发布,通过一个任务Case完成,我逐渐熟悉了FineBI这个产品,并在疫情期间在家中完成了我第一个FineBI作品《新冠肺炎疫情分析》。通过对疫情数据空间可视化地图展示,我第一次感受到BI工具的魅力。 /source/plugin/votes/function/editor/attached/image/20201205/20201205193518_72926.png 让用户可以看到并理解数据 今年7月份,为了推动公司数据分析业务的发展,我负责公司工程维保数据的质量分析工作,处于对FineBI的了解我选择使用FineBI作为数据可视化展示平台。在维保数据分析报告的制作过程中,我通过帆软社区讲堂掌握了利用Python进行数据采集的方法并应用在维保数据采集过程中,将原先2周才能完成数据报表制作过程降低到2天内完成维保数据质量分析报告输出。通过BI报表可视化呈现,使数据特征进行可视化的放大,用户可以更加容易理解数据含义。这是我认识到BI的精髓在于“让用户可以看到并理解数据”。 /source/plugin/votes/function/editor/attached/image/20201205/20201205193536_51724.png 越努力、越幸福 2020年疫情的原因,注定是不平凡的一年。我们经历了很多,也成长不少。一天、半月、五年、十载,青葱岁月,一晃而过。唯有全力以赴,一往无前,燃烧炽热的青春,所求人生的梦想,方不负此生。而我,因为热爱BI的关系所以学习了FineBI,也因为FineBI助力我成就探索数据价值、形成业务洞见的愿景的实现。老兵将砥砺前行,不负韶华。 /source/plugin/votes/function/editor/attached/image/20201205/20201205193612_34879.jpg
【数据追梦人】近20年数据工作的“老司机”,我有一些心里话想对你们说……
一、我走过的路,关于数据分析工作 我是一位在报表分析岗位上干过了10多年的老员工,如今回头来看看自己过去那段成长历史,觉得自己挺幸运的,在几个关键成长节点的碰巧成就了我数据追梦的历程。 梦想开始的地方 2002年本科毕业后,因为是学计算机网络应聘到一家投资公司做系统管理员,因为那里IT事务是归属在综合管理办公室的,我又是学计算机的所以部门内的同计算机相关的事情都交给我做了,包括部门数据报表,我想这应该就是我从事报表和数据分析工作起点的地方。 记得当时部门中有很多报表是用Excel vlookup 函数拼接起来的,每月出部门报表时间很长,处于年轻人冲劲,我接手此事用C语言写了个数据处理的程序,调试时候一直出现Memory Overflow……错误信息。 记得那个时代调试手段很落后,只能一句句的代码走查,经过几天的连续奋战,我终于定位到问题在于某个数组指针引用错误,那时已经是凌晨了,修改后终于重新编译通过。现在回想当年那段经历,觉得还是很感激老天能给我这个机会,而我很幸运的接到了。 需要知道Teamwork 是啥意思的时候 两年后,我来到一家制药公司数据分析部门,主要做医疗数据分析,当时部门的老外很重视数据工作,每年都要去India Bangalore 做技术互动,在哪个时候我明白什么叫India People English……..。因为数据报表查询需要进行性能调优,为了检索数据性能提升,我需要同DBA团队、基础架构团队和业务系统团队进行沟通互动,通过团队间互动,我逐渐明白teamwork 的内涵,只有站在团队肩膀上,才能是我的数据分析工作由Better 到Best。 那些年在Global的日子 在做了三年制药业的数据分析后,这时大约是08年,商业智能逐渐火了起来,处于职业发展的考虑,我被猎头推荐到一家英资公司,负责中国区的商业智能系统的上线和后续运维工作。因为我负责KPI报表,直接对接财务分析部的老大,为了能配合财务部门规划KPI报表体系,我开始学习财务知识,类似Front Margin、Back Margin 、 Stock Provision 这些财务名词由陌生变得熟悉起来,KPI报表也从原先4张报表变成68张报表组成的KPI Family。为此Helpdesk 还为KPI 报表单独设立一个服务体系。 这是中国区唯一的由所在国资源做系统服务支持的,也算我的一点小成就吧。回想自己在Global的日子,依旧感到我在数据追梦之旅上居然还走到Global 舞台上,也算为祖国人民争光了! 二、追梦之路,任重道远 在外企工作10年后,我来到一家国资背景的企业,从事IT运维管理。工作中发现公司数据应用能力不高,处于老本行的冲动,开始撸起袖子干起报表平台建设工作。 此前在外企一直用Tableau、Cognos、MSTR 这类BI工具,对国内报表工具市场不是很了解,在一次朋友聚会中,有位老同事向我推荐FineReport,抱着试用心里安装下,感觉FineReport 类Excel 设计模式使其最能适配复杂结构的中国式报表开发,比老外那些反人类的设计要好很多。为此我公司,最终落地FineReport 报表项目,这套报表系统目前运行良好。 运行良好的背后,是IT人员24HR Standby的工作模式 这一感慨来源于,某天我看到QQ群中的对话,惊而发现,不知道从什么时候开始我的微信群和QQ群变成了工作群,从早到晚都在群里处理系统问题。 129858 也因此,让我有感而发。这一段简简单单的对话,这些秒回的信息,深深反映了报表组每位团队成员为业务部门服务的精神。快速响应支持,深深地烙在每位团队每位成员的心中。 我相信这样的对话不仅仅存在于我们公司,所有企业IT部门的同僚也都是这样。因为数据分析关系重大,关键用户的需求往往比较紧急,只有我们快速响应用户需求,才能让业务部门放心安心。 129859ProjectRoutine Meeting 当公司报表系统上线之初,有40个项目使用报表系统应用,但各项目分散在全国各地,很多问题需要统一汇总,处理,及时的沟通交流就显得十分必要。 为了能让项目组在报表系统出现问题时 “有技术人员支持”,我们与业务部门的经理建立了一个微信群,其中有我团队三名技术专家同时进群,无论何时何地,这些报表用户都可以在群中随时与我们取得联系。 记得有一次,我在休假,业务部门的报表系统服务器宕机,导致整个公司的报表都没有办法生成。公司上上下下都在找我,打我的手机,我一面远程遥控公司同事处理服务器问题,一面联系合作方的技术人员现场支持,那天我的手机都快电话都快被打爆了,事情结束后直接在入住度假村中吃完饭就直接睡觉去了,实在太累了啊! 还有一个冬天,本来我已经在暖暖的被窝里准备入睡,但看到老板要求马上提供去年库存数据的消息时,困意马上一消而散。赶紧从床上爬起来,打开电脑,通过VPN远程登录公司服务器查询数据。手机微信随时保持同领导沟通,自从有了微信这个东东后,我的工作变成24HR Standby。 129860ITService Desk 终于老板要的数据全部整合完成,靠在家里书房的电脑椅背上长舒一口气,看下时间,已经凌晨1点。再次躺在床上,闭上双眼,心满意足,安稳入睡 。 报表系统需要7*24运转,因此系统问题发生的时间是无法预估的,需要确定的就是我们能及时处理这些问题,虽然有时是用户误操作导致的报表数据异常,但也因此让我们了解了系统的健壮性需要加强,我们需要考虑此前没有考虑到情况对系统进行完善。 数据分析工作就像Shadow 一样 有时IT部门的数据分析工作就像Shadow 一样,很多情况都是在后台的,不为人知。只有数据出问题时候,我们才会突然曝光。因此敏捷化响应,持续改进系统,保证报表用户体验,是我心中追逐的梦想。 130017 MyShadow 我已从事IT工作近20年,从底层程序员干起,一直到现在负责公司IT数据分析团队经理。“数据追梦”我一直在路上,作为一位老员工,回顾自己10多年追梦历程,想对你说: 我觉得做好一名数据分析人员,要懂业务、勤于学习新技术、善于同业务人员沟通。看到群里不少童靴在QQ里问 “想做数据分析如何准备面试”,“现在是做XX工作,想转换到BI工作岗位”等,我想说的是数据分析工作需要有“工匠精神”,数据分析工作是一种修炼,一旦你决定要从事这项工作时,你必须全身心的投入到工作中去,热爱数据分析工作,千万不要因为困难而有怨言,你必须磨炼你的技能,这样才能让别人尊敬你的专业。 129855 My Photo 一天、半月、五年、十载,青葱岁月,一晃而过。唯有全力以赴,一往无前,燃烧炽热的青春,所求人生的梦想,方不负此生。Just Do It!,而我,也深深体会到IT的价值:系统即服务,服务产生价值!自我价值的实现也使我收获了更多的幸福和成就感。 最后,向各位读者献上我在 Koh Rong Samloem my holiday的照片,那是个美丽的地方,也非常适合思考人生的地方。数据分析是份有趣而富有挑战的工作, let me enjoy my job and enjoy my life。
12下一页
个人成就
内容被浏览116,091
加入社区4年331天
贡献:3876

联系社区管理员|联系帆软|《帆软社区协议》|手机版|帆软社区|Copyright © 万搏提款 ( 苏ICP备18065767号-7 )

GMT+8, 2022-7-3 15:44 , Processed in 0.722157 second(s), 103 queries , Gzip On.

返回顶部