查文庫>總結> 資料員個人工作總結三篇-個人工作總結

資料員個人工作總結-個人工作總結

資料員個人工作總結三篇-個人工作總結

  總結是指對某一階段的工作、學習或思想中的經驗或情況進行分析研究,做出帶有規律性結論的書面材料,他能夠提升我們的書面表達能力,為此要我們寫一份總結。那麼總結要注意有什麼內容呢?以下是小編為大家收集的資料員個人工作總結三篇-個人工作總結,供大家參考借鑑,希望可以幫助到有需要的朋友。

資料員個人工作總結三篇-個人工作總結1

  在過去的一年裡,我在領導、同事們的支援和幫助下,用自己所學知識,在自己的工作崗位上,盡職盡責,較好的完成了各項工作任務。為公司做出了應有的貢獻。同時,身為一名化驗員我也在從思想到行動,從理論到實踐,進一步學習,提高自己的工作水平。現將本人本年度工作總結如下:

  一、努力學習,完善自我:隨-著公司的發展,實驗室儀器的增加。

  為了更好的完成工作,在之前的工作基礎之上,又學習了水中油含量、柴油烴類組成(稀釋法)、hcl的測定等新的實驗方法,並且熟練掌握,較好的完成了相關的工作任務。其次在工作中也經常遇到一些新的問題,透過和領導、同事們的商討研究最終解決。同時也對相關工作有了進一步的認識。

  二、工作內容與體會:

  我的工作主要是配合研發一部的其它幾個崗位做相應的分析。第一,配合重整催化劑評定崗位生成油的折光率和烴類組成分析;第二,配合抽提組的芳烴抽提的柴油做烴類組成分析;第三,配合代研究做的裂解油的黏度,酸值及色度等分析;第四,負責研發一部水樣的水中油含量、水垢等相關分析;另外在原油評價中負責酸值、蠟含量、硫醇硫、色度、冷慮點、黏度及逆流黏度等相關分析;參加hr-05b300溶劑生產負責取樣及黏度分析共二十一天;其次就是一些儲存油樣的色度分析及其它的一些實驗分析;另外我還積極配合其他同事完成了一些工作任務。一年中,在領導和同事們的悉心關懷和指導下:我共完成色度資料500多個;折光率資料150個;黏度資料88個;逆流黏度資料140個;水中油資料245個;熒光族組資料193個;柴油族組成資料115個;酸值資料30多個;蠟含量資料11個;密度資料16個;冷慮點資料5個;溴價溴指數資料18個。化驗工作精細瑣碎,而且由於我們主要是搞研發,所以不像煉油廠的化驗工作很有規律性。我們會經常遇到不同的新問題。所以為了搞好工作,我不怕麻煩,細心觀察實驗現象,向領導請教、向同事學習、自己摸索實踐,認真學習相關業務知識,不斷提高自己的理論水平和綜合素質。在實驗室工作安全意識和環保意識相當重要。所以我工作投入,能夠正確認真對待每一項工作,熟記各項安全措施,遇事不能慌。環保也是相當重要,做到每種化學試劑和需要處理的油樣,集中分類處理,不隨意亂倒。這些對環境都很有影響。在刷洗瓶子時,不隨便倒沾有油的汙水。同時注意到實驗室的通風和各種化學試劑及油樣的擺放問題。

  三、工作態度與勤奮敬業:

  我熱愛自己的本職工作,正確認真對待每一項工作,在開展工作之前做好個人,有主次的先後及時完成各項工作。熱心為大家服務,認真遵守勞動紀律,保證按時出勤。有效利用工作時間,堅守崗位,需要加班完成工作按時加班加點,保證工作能按時完成。在作風上,能遵章守紀、團結同事、務真求實、樂觀上進,始終保持嚴謹認真的工作態度和一絲不苟的工作作風。積極參加公司組織的各項活動,如春遊,秋季五項全能體育比賽等。

  總結這一年來的工作,儘管有了一定的進步和成績,但在一些方面還存在著不足。比如很多實驗只是停留在簡單的操作而忽視了工作原理;實驗過程中由於自己的粗心導致實驗儀器損壞或實驗結果誤差較大等。還有個別實驗做得不夠熟練,不夠完善,這有待於在今後的工作中加以改進。透過這段時間的工作實踐,讓我懂得從事實驗分析工作一定要細心,不能放過一個疑點,有問題多請示,多彙報。在今後的時間裡,我將認真遵守各項考勤制度,努力學習有關石油化工的各項實驗分析方法及石油化工知識,爭取成為一名更為優秀的全方面的實驗分析化驗員,為公司的發展獻出自己的一份力量。

資料員個人工作總結三篇-個人工作總結2

  在市委、市政的領導和關心下,在自治區農普辦的業務指導下,經過市農普辦和縣區農普辦全體人員的通力合作,我市第二次農業普查資料處理工作接近尾聲。現將全市農業普查資料處理工作總結如下:

  一、資料處理基本情況

  我市共有1602個普查區、17010個普查小區,涉農單位1960家,需要錄入的普查表有200多萬張。我市農普資料處理工作全部安排在市一級開展,分為光電錄入和Apras邏輯稽核兩個階段,兩個階段同時進行。市農普辦調配二十多臺電腦,加上自治區調撥的12臺電腦,約有30多臺PC機用於農普資料處理工作。

  整個普查資料處理工作從準備階段到資料上報,歷時一年半時間,經歷了資料處理組組建階段、清查處理階段、裝置安裝除錯階段、培訓階段、光電錄入階段、邏輯稽核階段、資料上報階段等。我市光電錄入工作開始於20xx年4月上旬,採取外聘實習生和市農普辦工作人員相結合操作的方式,由實習生進行掃描、校驗、稽核整個流程的操作,農普辦人員在旁監督以保證掃描錄入的質量。全面的光電錄入工作於6月12日結束,期間共掃描普查表2300579張,平均每天掃描3萬張左右,最高一天掃描約7萬張的普查表。Apras邏輯稽核開始於4月中旬,採取的方法是由鄉鎮人員操作對本鄉鎮的資料進行邏輯稽核、改錯,市農普辦業務組人員控制總體資料質量。為確保資料質量,市農普辦多次召開現場培訓會,透過制定、執行完整的工作流程,從而對Apras稽核進行全程監控。市農普辦先後組織了20批約400人次參加了農普Apras邏輯稽核工作,整個稽核工作於7月下旬結束。市農普辦還結合我市的實際,發揮創新能力,在國家下發的Apras程式制度基礎上,新增了19條稽核公式和10張彙總表用於資料質量控制。8月下旬,我市農普資料順利透過自治區稽核並上報至國家。

  二、主要做法

  (一)領導重視,為資料處理工作提供強有力的組織保障。

  資料處理作為整個農普工作的重要環節,關係到農普工作的好壞,我市農普資料處理工作之所以順利開展,與市農普辦領導密切關心分不開的。農普辦領導經常對資料處理工作進行檢查指導,及時糾正資料處理工作錯誤,協調解決資料處理工作遇到的困難。

  市農普辦領導從普查經費中劃撥出資料處理專項經費,用於保障資料處理培訓、外聘資料處理人員勞務費、購買資料處理用伺服器和PC機等電子裝置、網站建設和網路正常執行以及平時日常辦公所需要的支出,保障了農普資料處理工作的順利進行。

  (二)精心準備,成立農普資料處理組,制定本市普查資料處理實施。

  根據南農普辦字11號文《南寧市第二次全國農業普查領導小組辦公室成員職責分工方案》的要求,在市農業普查領導小組辦公室專門設立資料處理組,並以檔案形式明確了資料處理組的工作職責,處理組成員由市統計局計算站業務骨幹組成。

  根據國家和自治區的普查資料處理實施方案要求,結合南寧市的實際情況,我們制定了農普資料處理實施方案。方案明確規定了整個農普資料處理工作流程、處理模式,建立了資料處理工作崗位責任制,確保了系統管理、掃描、識別、校驗、稽核、任務管理、資料管理崗位責任到人。市農普辦還制定了一些資料處理工作規定,如計算機房管理規定、機房日常工作管理要求等。

  (三)密切配合,做好農普清查資料處理工作,為普查正式開展夯實基礎。市農普資料處理組積極配合業務組開展農普清查摸底工作,協助業務組完成清查快速彙總工作。

  (四)認真籌備,做好資料處理環境的落實、資料處理系統的整合和裝置補充工作。

  市農普辦及時落實了資料處理工作的場地,並對資料場地按要求進行了改造,保證獨立接地並且小於1歐姆。購置了17臺PC機,在機房安裝了一臺格力5P天井式空調,給機房配備了印表機,調配5臺電腦和2臺伺服器用於Apras邏輯稽核工作,並更新了機房的兩臺UPS。

  及時接收自治區下發的資料處理軟、硬體,及時組織資料處理組人員組裝裝置、安裝程式、除錯網路、測試系統整合,搭建了與外部隔絕的農普資料處理專用網路,保障了資料處理按時開展。同時,落實了資料週轉、調閱和管理的資料庫用房。

  (五)精心挑選,做好資料處理人員選調和培訓工作。

  根據農普工作要求,市農普辦從各成員單位抽調了一批年紀輕、學歷高、業務精的同志充實到農普資料處理工作中來,在資料處理工作各環節擔當監督員、稽核員等重要角色。並從南寧市有關院校挑選出39名學生參加光電錄入和Apras邏輯稽核工作。

  市農普辦多次派出業務骨幹參加國家、自治區舉辦的各種資料處理工作的培訓會,結合本市實際制定了詳細的培訓計劃,對我市參加資料處理工作的縣區及外聘的人員進行資料處理技術的培訓。培訓取得良好效果,受訓人員熟練理解培訓內容和掌握了相應的操作技巧,極大促進了我市農普資料處理工作順利開展。

  (六)合理安排,做好各縣區普查表上交及資料處理工作中原始資料的登記交接工作。

  制定原始資料交接流程,製作了交接登記表,規定各縣區上交普查表的時間,指定專人負責資料的交接工作,原始資料有專門地點存放,專人進行管理,已錄入和未錄入的資料分開存放,避免了在資料管理上出現混亂。

  在光電錄入和邏輯稽核過程中,每個環節普查表的流轉均有詳細的記錄。特別是在光電錄入環節中,有專人領取普查表並由專人負責回收領取的普查表,對於已掃描、已校對、已稽核的普查表均有明顯標識。

  (七)精心組織,做好普查表光電錄入和邏輯稽核工作。

  在自治區下發的12臺PC機的基礎上,我市又購置一批PC機用於光電錄入工作。制定了規範的錄入工作流程,領表、掃描、校驗、稽核、收表等環節均定人定崗,專人負責,市級和縣級排出專業人員負責跟班答疑。參與錄入工作的人員實行兩班倒,每班設有一個由市農普辦人員擔任的班長負責對光電錄入的全面調配。每班交接有詳細的交接單,記錄清楚前一班未完成的工作、已領出報表的小區名。

  資料處理組負責把光電掃描的資料從光電錄入系統匯出,再匯入到Apras邏輯稽核中,並進行稽核,記錄好稽核出來的錯誤筆數。當光電錄入匯出時遇到錯誤,資料處理組人員將錯誤清單打出,交由光電錄入當班班長處理。

  Apras邏輯稽核由鄉鎮人員操作完成,鄉鎮人員負責稽核、修訂本鄉鎮的農普資料。市農普辦統一協調,安排各個鄉鎮進行資料處理的時間,業務組和資料處理組人員實時監控,當發現問題、錯誤,及時告知相關鄉鎮的人員。為進一步控制好我市的資料質量,市農普辦結合我市的實情,發揮創新能力,在國家下發的Apras程式制度基礎上,新增了19條稽核公式和10張彙總表。光電錄入工作基本結束後,原先參與光電錄入的人員立即轉入到Apras邏輯稽核的工作。

  (八)嚴格執行,做好農普影象、資料的備份和處理裝置的維護工作。

  資料處理組對光電錄入系統進行刻盤備份,定期對光電掃描的影象和Apras邏輯稽核的資料進行備份,影象可以透過程式定時自動備份,Apras中的資料透過人工定時備份。接入農普資料處理專用網路的每臺電腦上均裝有國家下發的VRV北信源防毒軟體,並對其設定了定時自動查殺病毒。由於措施得當,整個資料處理工作中未出現因操作不當或不及時備份或未及時查殺病毒而造成資料和影象丟失現象。

  每天工作結束時,均要求掃描器操作人員對掃描器進行清潔。資料處理組每個月定期對掃描器進行深度清潔。當掃描器出現故障超出能力範圍時,資料處理組均能及時與贊華公司聯絡,請技術人員上門維護處理故障。其他裝置在農普資料處理工作期間未出現任何故障。

  及時對光電錄入系統和邏輯稽核系統進行升級。一旦國家農普網或自治區下檔案更新,市農普辦資料處理組均能及時對市級相關程式按要求進行更新(包含Apras制度更新),避免出現更新不及時而耽誤整個資料處理程序的事件。

  (九)服從調配,積極配合全區農普資料處理工作的開展。

  根據自治區的要求,在光電錄入期間,我市先後支援了貴港市和北海市各一臺光電掃描器,支援貴港市四臺PC機,有力支援了兄弟市的`資料處理工作。在資料上報後,及時返還了自治區下發的所有掃描器、PC機、伺服器等資料處理裝置。

  (十)按時保質,做好普查資料質量檢查、評估和上報工作。

  市農普辦安排有專人負責統計每天的光電錄入進度,並按照要求及時向自治區上報光電錄入進度。

  嚴格按照規定的內容、時間和方式向自治區農普辦上報我市農普資料和掃描影象。在上報資料之前,資料經市農普辦業務組進行了分析和評估,符合要求的評估報告及有關文字隨同普查資料一併上報自治區。

  對於自治區稽核反饋的資料和錯誤清單,及時組織人員進行核實、修訂,及時按規定再次上報資料。

  (十一)密切配合,做好普查資料事後質量抽查工作。

  資料上報後,根據自治區農普辦的安排,我市派出業務組組長和資料處理業務骨幹參加了普查資料事後質量的抽查工作。在整個抽查工作中,我市按照自治區農普辦的要求,嚴格把關,認真完成抽查工作的每一個步驟。我市農普資料處理工作質量得到了較大提升。

  三、今後工作計劃

  下一步資料處理工作的重心將轉移到資料資料的開發上。我們計劃在自治區反饋資料後,立即組織人員對全市農普資料進行系統整理,及早開展本市的農業普查資料彙編的編輯工作,完成縣區一級的彙總並向其反饋相關資料和資料,努力搞好農業普查資料庫的建設工作。

資料員個人工作總結三篇-個人工作總結3

  一、資料量過大,資料中什麼情況都可能存在。

  如果說有10條資料,那麼大不了每條去逐一檢查,人為處理,如果有上百條資料,也可以考慮,如果資料上到千萬級別,甚至過億,那不是手工能解決的了,必須透過工具或者程式進行處理,尤其海量的資料中,什麼情況都可能存在,例如,資料中某處格式出了問題,尤其在程式處理時,前面還能正常處理,突然到了某個地方問題出現了,程式終止了。

  二、軟硬體要求高,系統資源佔用率高。

  對海量的資料進行處理,除了好的方法,最重要的就是合理使用工具,合理分配系統資源。一般情況,如果處理的資料過TB級,小型機是要考慮的,普通的機子如果有好的方法可以考慮,不過也必須加大CPU和記憶體,就象面對著千軍萬馬,光有勇氣沒有一兵一卒是很難取勝的。

  三、要求很高的處理方法和技巧。

  這也是目的所在,好的處理方法是一位工程師長期工作經驗的積累,也是個人的經驗的總結。沒有通用的處理方法,但有通用的原理和規則。

  下面我們來詳細介紹一下處理海量資料的經驗和技巧:

  一、選用優秀的資料庫工具

  現在的資料庫工具廠家比較多,對海量資料的處理對所使用的資料庫工具要求比較高,一般使用Oracle或者DB2,微軟公司最近釋出的SQLServer20xx效能也不錯。另外在BI領域:資料庫,資料倉庫,多維資料庫,資料探勘等相關工具也要進行選擇,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,Eassbase等。筆者在實際資料分析專案中,對每天6000萬條的日誌資料進行處理,使用SQLServer20xx需要花費6小時,而使用SQLServer20xx則只需要花費3小時。

  二、編寫優良的程式程式碼

  處理資料離不開優秀的程式程式碼,尤其在進行復雜資料處理時,必須使用程式。好的程式程式碼對資料的處理至關重要,這不僅僅是資料處理準確度的問題,更是資料處理效率的問題。良好的程式程式碼應該包含好的演算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。

  三、對海量資料進行分割槽操作

  對海量資料進行分割槽操作十分必要,例如針對按年份存取的資料,我們可以按年進行分割槽,不同的資料庫有不同的分割槽方式,不過處理機制大體相同。例如SQLServer的資料庫分割槽是將不同的資料存於不同的檔案組下,而不同的檔案組存於不同的磁碟分割槽下,這樣將資料分散開,減小磁碟I/O,減小了系統負荷,而且還可以將日誌,索引等放於不同的分割槽下。

  四、建立廣泛的索引

  對海量的資料處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序等欄位,都要建立相應索引,一般還可以建立複合索引,對經常插入的表則建立索引時要小心,筆者在處理資料時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然後插入完畢,建立索引,並實施聚合操作,聚合完成後,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚集索引都要考慮。

  五、建立快取機制

  當資料量增加時,一般的處理工具都要考慮到快取問題。快取大小設定的好差也關係到資料處理的成敗,例如,筆者在處理2億條資料聚合操作時,快取設定為100000條/Buffer,這對於這個級別的資料量是可行的。

  六、加大虛擬記憶體

  如果系統資源有限,記憶體提示不足,則可以靠增加虛擬記憶體來解決。筆者在實際專案中曾經遇到針對18億條的資料進行處理,記憶體為1GB,1個P42.4G的CPU,對這麼大的資料量進行聚合操作是有問題的,提示記憶體不足,那麼採用了加大虛擬記憶體的方法來解決,在6塊磁碟分割槽上分別建立了6個4096M的磁碟分割槽,用於虛擬記憶體,這樣虛擬的記憶體則增加為4096*6+1024=25600M,解決了資料處理中的記憶體不足問題。

  七、分批處理

  海量資料處理難因為資料量大,那麼解決海量資料處理難的問題其中一個技巧是減少資料量。可以對海量資料分批處理,然後處理後的資料再進行合併操作,這樣逐個擊破,有利於小資料量的處理,不至於面對大資料量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分資料,還需要另想辦法。不過一般的資料按天、按月、按年等儲存的,都可以採用先分後合的方法,對資料進行分開處理。

  八、使用臨時表和中間表

  資料量增加時,處理中要考慮提前彙總。這樣做的目的是化整為零,大表變小表,分塊處理完成後,再利用一定的規則進行合併,處理過程中的臨時表的使用和中間結果的儲存都非常重要,如果對於超海量的資料,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步彙總操作,可按彙總步驟一步步來,不要一條語句完成,一口氣吃掉一個胖子。

  九、最佳化查詢SQL語句

  在對海量資料進行查詢處理過程中,查詢的SQL語句的效能對查詢效率的影響是非常大的,編寫高效優良的SQL指令碼和儲存過程是資料庫工作人員的職責,也是檢驗資料庫工作人員水平的一個標準,在對SQL語句的編寫過程中,例如減少關聯,少用或不用遊標,設計好高效的資料庫表結構等都十分必要。筆者在工作中試著對1億行的資料使用遊標,執行3個小時沒有出結果,這是一定要改用程式處理了。

  十、使用文字格式進行處理

  對一般的資料處理可以使用資料庫,如果對複雜的資料處理,必須藉助程式,那麼在程式操作資料庫和程式操作文字之間選擇,是一定要選擇程式操作文字的,原因為:程式操作文字速度快;對文字進行處理不容易出錯;文字的儲存不受限制等。例如一般的海量的網路日誌都是文字格式或者csv格式(文字格式),對它進行處理牽扯到資料清洗,是要利用程式進行處理的,而不建議匯入資料庫再做清洗。

  十一、定製強大的清洗規則和出錯處理機制

  海量資料中存在著不一致性,極有可能出現某處的瑕疵。例如,同樣的資料中的時間欄位,有的可能為非標準的時間,出現的原因可能為應用程式的錯誤,系統的錯誤等,這是在進行資料處理時,必須制定強大的資料清洗規則和出錯處理機制。

  十二、建立檢視或者物化檢視

  檢視中的資料來源於基表,對海量資料的處理,可以將資料按一定的規則分散到各個基表中,查詢或處理過程中可以基於檢視進行,這樣分散了磁碟I/O,正如10根繩子吊著一根柱子和一根吊著一根柱子的區別。

  十三、避免使用32位機子(極端情況)

  目前的計算機很多都是32位的,那麼編寫的程式對記憶體的需要便受限制,而很多的海量資料處理是必須大量消耗記憶體的,這便要求更好效能的機子,其中對位數的限制也十分重要。

  十四、考慮作業系統問題

  海量資料處理過程中,除了對資料庫,處理程式等要求比較高以外,對作業系統的要求也放到了重要的位置,一般是必須使用伺服器的,而且對系統的安全性和穩定性等要求也比較高。尤其對作業系統自身的快取機制,臨時空間的處理等問題都需要綜合考慮。

  十五、使用資料倉庫和多維資料庫儲存

  資料量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基於Cube的查詢可能只需要幾分鐘,因此處理海量資料的利器是OLAP多維分析,即建立資料倉庫,建立多維資料集,基於多維資料集進行報表展現和資料探勘等。

  十六、使用取樣資料,進行資料探勘

  基於海量資料的資料探勘正在逐步興起,面對著超海量的資料,一般的挖掘軟體或演算法往往採用資料抽樣的方式進行處理,這樣的誤差不會很高,大大提高了處理效率和處理的成功率。一般取樣時要注意資料的完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表資料進行取樣,抽取出400萬行,經測試軟體測試處理的誤差為千分之五,客戶可以接受。

  還有一些方法,需要在不同的情況和場合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時間,因為對數值型的聚合比對字元型的聚合快得多。類似的情況需要針對不同的需求進行處理。

  海量資料是發展趨勢,對資料分析和挖掘也越來越重要,從海量資料中提取有用資訊重要而緊迫,這便要求處理要準確,精度要高,而且處理時間要短,得到有價值資訊要快,所以,對海量資料的研究很有前途,也很值得進行廣泛深入的研究。