要看你什么论文了,而且还要根据你自己论文的主题和对象以及论文的信息来看的,找的话很难找到51调查网上可以帮你做你自己想要的数据,然后你把调查什么方面的东西和信息做成问卷就可以了。
研究生必备科研工具都有哪些?它们的本质作用是什么?今天想跟大家分享的三个科研工具,分别是用一下查文献,写论文降低重复率以及科研绘图,这三种小编都是自己用习惯了的,也有刚被同学安利的,总之就是希望推荐的这些有适合你的,有你能用上的。
首先是查文献的网站,这三个网站中只有拍卖需要装一下插件,其他的都能在送文献的同时,直接显示出来影响因子,方便我们筛选高分的文章。如果搜索后的文章你发现下载不了,可以用题目编号或者pmid去搜索试试看。
第二个是检查纠错,润色文章的工具秘塔写作猫,如果是需要写毕业论文或者是中英文综述,用它对论文纠错、改写、降低重复率,会特别方便一些字词错误。一些字体错误,日常不容易注意到的书面规范用词,还有用错的中英文标点符号,他都能检查到。像我自己的话,写论文会担心词汇量不够,书面表达不够标准,或者是需要给文章降重就直接用它的改写功能,高效又省事。那开始用的时候,我是把论文直接上传到写作台,用他们的网页版,习惯用word的小伙伴也可以下载插件,就能直接在word里修改了。
最后一个是科研绘图网站。它涵盖了从动物到植物,从体外到体内实验会涉及到的各种科研绘图素材,也是很多高分文章在用的绘制示意图的来源。在这个网站中,能直接在网页的操作界面上选择素材,绘图也能通过他给的各种模板修改和使用。那数据爬取之后,就是一个数据清洗和预处理的过程,这里呢给大家推荐knime,这个软件可以进行一些数据的清理和预处理的工作,操作过程,也并不复杂.
那最后,对于数据分析的过程,往往python是更好的选择,那除了python之外,同样也有一个非常简单易用的界面,更友好的集成性工具操作的软件,那就是Weka。这个软件,集成了大部分的数据挖掘和数据分析的过程,通过一些简单的简选操作就可以完成。并不需要使用拍子的编程也是非常好,用的一个工具,如果大家刚刚接触数据挖掘,可以通过这个软件来进行一些分析,来帮助你更好的了解数据分析和数据挖掘的过程。以上,就是我给大家推荐的五类研究生必备或者必备的软件工具,尤其是对于最后实证分析类的软件,都需要大家去花时间来进行学习和实践才可以掌握和应用。
毕业论文需要的数据可以从下面几个方面获取:
一、问卷调查。很多文科的同学,用问卷调查的数据比较多,这种数据比较好收集,自己设计一套问卷,去找目标人群收集数据就行了。现在有很多专门的调查问卷的网站和小程序之类的,收集这类数据就简单多了。
二、实验数据。这种数据一般理科的同学用的比较多,通过自己的实验拿到的数据也比较可靠,自己用起来也很有底气。
三、国家和政府公布的数据,这种数据大多都是月度,季度,年度数据。数据范围比较广,官方数据很有说服力,如果是做行业调查之类的很实用,而且也不需要自己收集,直接拿来就可以用,很方便。
四、就是行业数据,行业数据可能来自于行业协会,行业专业网站等等。
五、常用的数据来源网站有:
1、国家统计局,这个网站上的数据比较官方权威。
2、中国旅游研究院,适合一些旅游专业的学生。
3、产业信息网,了解不同产业的收益、市场占额等信息。
4、国土资源部,获取土地资源、矿产资源、海洋资源等自然资源的规划、管理、保护与合理利用等信息。
5、国家企业信用信息公示系统,收集企业的信用信息。
6、中国知网,阅读参考文献的网站。
7、新浪财经,了解全球经济宏观数据。
文献和报告里有你需要的相关内容
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Author: Administrator # @Date: 2015-10-31 15:45:27 # @Last Modified by: Administrator # @Last Modified time: 2015-11-23 16:57:31 import requests import sys import json import re reload(sys) ('utf-8') #获取到匹配字符的字符串 def find(pattern,test): finder = (pattern, test) start = () end = () return test[start:end-1] cookies = { '_ga':'', '_za':'8d570b05-b0b1-4c96-a441-faddff34', 'q_c1':'23ddd234234', '_xsrf':'234id':'"ZTE3NWY2ZTsdfsdfsdfWM2YzYxZmE=|1446435757|15fef3b84e044c122ee0fe8959e606827d333134"', 'z_c0':'"QUFBQXhWNGZsdfsdRvWGxaeVRDMDRRVDJmSzJFN1JLVUJUT1VYaEtZYS13PT0=|14464e234767|57db366f67cc107a05f1dc8237af24b865573cbe5"', '__utmt':'1', '__utma':'', '__utmb':'', '__utmc':'51123390', '__utmz':'|utmcgcn=(referral)|utmcmd=referral|utmcct=/', '__utmv':'|2=registration_date=2028=1^3=entry_date=201330318=1'} headers = {'user-agent': 'Mozilla/ (Windows NT ; WOW64) AppleWebKit/ (KHTML, like Gecko) Chrome/ Safari/', 'referer':'', 'host':'','Origin':'', 'Content-Type':'application/x-www-form-urlencoded; charset=UTF-8', 'Connection':'keep-alive','X-Requested-With':'XMLHttpRequest','Content-Length':'81', 'Accept-Encoding':'gzip,deflate','Accept-Language':'zh-CN,zh;q=','Connection':'keep-alive' } #多次访问之后,其实一加载时加载20个问题,具体参数传输就是offset,以20递增 dicc = {"offset":60} n=20 b=0 # 与爬取图片相同的是,往下拉的时候也会发送http请求返回json数据,但是不同的是,像模拟登录首页不同的是除了 # 发送form表单的那些东西后,知乎是拒绝了我的请求了,刚开始以为是headers上的拦截,往headers添加浏览器 # 访问是的headers那些信息添加上,发现还是拒绝访问。 #想了一下,应该是cookie原因。这个加载的请求和模拟登录首页不同 #所以补上其他的cookies信息,再次请求,请求成功。 for x in xrange(20,460,20): n = n+20 b = b+20 dicc['offset'] = x formdata = {'method':'next','params':'{"offset":20}','_xsrf':'20770d88051f0f45e941570645f5e2e6'} #传输需要json串,和python的字典是有区别的,需要转换 formdata['params'] = (dicc) # print (dicc) # print dicc circle = ("", cookies=cookies,data=formdata,headers=headers) #response内容 其实爬过一次之后就大同小异了。 都是 #问题返回的json串格式 # {"r":0, # "msg": ["