Selasa, 09 Desember 2014

Perbedaan DTS dan SSIS pada SQL Server

DTS

Data Transformation Services adalah salah satu modul pada SQL Server yang bisa mengkonversi data dari SQL Server ke format data yang lain yang kompatibel dengan OLE DB, ODBC, dan file teks.

Sebuah paket DTS pada dasarnya adalah keterangan yang terperinci mengenai operasi-operasi yang harus dilakukan untuk mengimpor, mengekspor, atau mentransformasi suatu data.

Paket DTS bisa mencakup meng-copy tabel-tabel antardatabase dan mentransformasi data dari 1 format ke format yang lain dengan menggunakan ODBC, AktiveX, dan perintah SQL, atau bahkan program-program eksternal yangbisa menjadi bagian dari paket DTS.

Data Transformation Service juga merupakan sekumpulan ultilitas yang memungkinkan proses Extract, transform, dan load secara otomatis dari atau ke database. DTS juga tersedia dalam Microsoft SQL Server. Sejak Sql Server 2005 DTS digantikan dengan SSIS

SSIS

SQL Server Integration Services (SSIS) adalah suatu platform untuk membangun sistem yang handal untuk integrasi data, solusi workflow termasuk extraction, transformation, dan loading (ETL) yang banyak digunakan pada data warehousing.

Perbedaan DTS dan SSIS

DTS :

  1. DTS adalah sekumpulan dari obyek yang digunakan sebagai alat ETS Tools untuk mengekstrak, mentransform dan memuat informasi dari sebuah database
  2. DTS adalah bagian dari Microsoft SQL Server 2000
  3. Menggunakan Activex Script
  4. Tidak ada cara cepat
  5. Transformasi yang tersedia terbatas
  6. Tidak didukung fungsi Business Intelegent
  7. Hanya bisa dikembangkan di server local


SSIS :

  1. SSIS adalah sebuah alat yang disediakan Microsoft untuk mengekstrak data dari sumber lain
  2. SSIS adalah komponen dari Microsoft SQL Server 2005
  3. Menggunakan Scripting Language
  4. Ada cara cepat
  5. Tersedianya fitur tranformasi yang sangat besar
  6. Didukung oleh fungsi Business Intellegent
  7. Dapat dikembangkan di berbagai server menggunakan BIDS


Selasa, 02 Desember 2014

DTS ( Data Transformation Services )

Definisi DTS 

Data Transformation Services memindahkan data dari database OLTP (Online Transaction Processing) ke data warehouse sesuai dengan tujuannya. Hal ini dilakukan ketika validasi, cleaning up, konsolidasi dan mengubah data yang diperlukan(Vieria, Robert, 2000, P91)

Menurut Peterson (2001,p6) DTS dalam Microsoft SQL 2008 adalah sebuah alat yang dapat digunakan untuk memindahkan data. DTS juga merupakan alat fleksibel yang dapat diukur untuk mendapatkan kendali tertinggi atas transformasi dari data. DTS merupakan sebuah alat untuk mengcopy, memindahkan, memperkuat, membersihkan, dan memvalidasi data. Transfer data memuat tiap kolom dari sumber data, memanipulasi nilai ke dalam kolom tersebut dan memasukan kolom tersebut ke tujuan data.

Tools DTS

  • Import Export Wizzard 
    • Import/Export Wizard untuk membangun DTS packages sederhana dan mensupport perpindahan data dan transformasi sederhana.Import Export Wizzard
  • DTS Designer
    • DTS Designer mengimplementasikan DTS object model graphically yang memungkinkan user untuk menciptakan DTS packages dengan fungsi luas.
  • DTS Run
    • DTSRun merupakan command prompt utility yang digunakan untuk mengeksekusi DTS packages yang ada.
  • DTS Run UI
    • Merupakan grafik interface untuk DTSRun, yang juga mengijinkan pemakaian variable global dan command lines.


Task Dalam Sebuah Package 

Sebuah DTS package biasanya terdiri atas satu task atau lebih. Setiap task mendefinisikan jenis pekerjaan yang akan diberikan selama eksekusi package. Task-task tersebut dikelompokkan berdasarkan fungsinya berikut ini:
  • Transformasi data
  • Mengcopy dan mengatur data
  • Menjalankan tasks sebagai jobs dari dalam sebuah package


Conection Untuk Mengakses dan Memindahkan Data

Agar eksekusi DTS tasks dalam menyalin dan memindahkan data berjalan sukses, sebuah DTS package harus mempunyai hubungan yang valid antara sumber data asal dengan sumber data tujua. Ketika menciptakan sebuah package, user dapat mengkonfigurasikan hubungan dengan memilih jenis hubungan dari daftar yang tersedia pada OLE DB providers dan ODBC drivers. Jenis hubungan yang tersedia antara lain:

  • Microsoft Data Acces Component (MDAC) drivers
  • Microsoft Jet drivers
  • Other drivers
  • OLE DB CONNECTION

Selasa, 25 November 2014

Data Quality

Menurut Mark Mosley (2008) dalam bukunya “Dictionary of Data Management”, pengertian kualitas data adalah level data yang menyatakan data tersebut akurat (accurate), lengkap (complete), timely (update), konsisten (consistent) sesuai dengan semua kebutuhan peraturan bisnis dan relevan.

Data yang berkualitas sangat penting karena dapat :
  • Meningkatkan kepercayaan diri dalam pengambilan keputusan
  • Memperbaiki pelayanan kepada Customer
  • Meningkatkan kesempatan memperbaiki kinerja,
  • Mengurangi resiko dari keputusan yang berbahaya,
  • Mengurangi biaya, terutama untuk pemasaran,
  • Mengembangkan strategi untuk pembuatan keputusan,
  • Meningkatkan produktivitas dengan memangkas beberapa proses
  • Menghindari efek komplikasi dari data yang terkontaminasi

Beberapa indicator data berkualitas :

  1. ACCURACY = data yang tersimpan nilainya benar (name cocok dengan alamatnya)
  2. DOMAIN INTEGRITY = nilai attributnya sesuai batasan yang diperkenankan (nilai attribut laki n perempuan)
  3. DATA TYPE = Nilai data disimpan dalam tipe data yang sesuai (data nama disimpan dengan tipe text)
  4. CONSISTENCY = nilai sebuah field data akan sama semua dalam berbagai berkas (field produk A dgn kode 123, akan selalu sama kodenya di setiap berkas lain)
  5. REDUDANCY = tidak boleh ada data yang sama disimpan di tempat yang berbeda dalam satu sistem
  6. COMPLETENESS = Tidak ada nilai atttribut salah yang diberikan dalam sistem
  7. DATA ANOMALY = sebuah field hanya digunakan sesuai kegunaannya. (field address3 รจ digunakan untuk mencatat baris ketiga dalam alamat bukan untuk telp atau fax)
  8. CLARITY = Kejelasan arti kegunaan dan cara penulisan sebuah data (penamaan khusus)
  9. TIMELY = merepresentasikan waktu dari data yang dimasukkan (jika data digunakan perhari maka data pada warehaouse harus juga dibuat per hari)
  10. USEFULNESS = setiap data harus benar digunakan oleh user
  11. ADHERENCE TO DATA INTEGRITY RULES = taat pada aturan keterhubungan data


Keuntungan Data Berkualitas
  • Analisis dengan Informasi Tepat Waktu
  • Customer Service yang lebih baik
  • Peluang baru
  • Biaya berkurang dan Risiko
  • Peningkatan Produktivitas
  • Handal Pengambilan Keputusan Strategis

Data Quality Challenges ( tantangan dalam membuat data berkualitas )
Terdapat beberapa factor yaitu :
  • Data Source :
    • Penuaan Data
    • Kesalahan Inputan
    • Penipuan
    • Sistem Konversi yang salah
  • Validasi Data :
    • Terjadi duplikasi data
    • Beberapa atribut data tercampur dalam field yang sama
    • Ejaan yang berbeda untuk nama yang sama
    • Tidak adanya atribut kunci
  • Dibutuhkan biaya yang besar  untuk menjaga kualitas data, terdapat beberapa cara yaitu :
    • Mengatur data agar selalu berkualitas membutuhkan biaya yang tidak sedikit
    • Membutuhkan orang – orang yang berkompeten untuk me-manage data

Data Quality Tools

Data Auditing

Data Auditing meningkatkan akurasi dan kebenaran data pada sumbernya. Tools ini pada umumnya membandingkan data di database sumber dengan aturan bisnis yang ada.
Bila menggunakan sumber eksternal organisasi, aturan bisnis dapat ditentukan dengan menggunakan teknik data mining untuk menemukan pola dalam data. Data yang tidak mematuhi aturan bisnis kemudian dapat dimodifikasi sesuai kebutuhan.

Data Cleansing

Data Cleansing digunakan dalam staging area. Data Cleansing berguna untuk melakukan standarisasi, dan verifikasi data terhadap data yang tidak dikenali. Beberapa fitur yang terdapat dalam Data Cleansing adalah :
  • Data Parsing : Memecah nilai dalam bentuk yang kecil untuk digunakan pada tahap selanjutnya.
  • Data Standarization : Mengubah elemen – elemen data kedalam bentuk standar.
  • Data Correction and verification : Melakukan pengecekan data terhadap data yang tidak dikenali, terutama pada lokasi atau alamat.
  • Data Transformation : Menjamin konsistensi pemetaan data dari sistem sumber dengan data warehouse.
  • Householding : Menggabungkan individual data yang memiliki kesamaan alamat

Data Migration

Data Migration digunakan untuk mengekstrak data dari sumber untuk dikirim ke staging area dan dari staging area ke data warehouse.

Data Quality Initiattive

Untuk bisa sukses, Data Quality program harus bisa dimulai oleh CEO, didukung oleh jajaran direksi, dan dijalankan oleh manajer yang khusus bertugas mengatur kualitas data.
Untuk menjalankan program ini, terdapat beberapa langkah yang harus dilakukan :
  • Data Stewardship Program : Bertujuan untuk memberikan konsultasi dan bantuan mengenai penanganan data yang berkualitas
  • Mengatur tujuan dan harapan dari program Data Quality
  • Melihat dan mengawasi program Data Quality



Senin, 17 November 2014

Extraction - Transformation - Loading

ETL  merupakan  sebuah  proses  penting  yang merupakan  bagian  dari  Data  Warehouse  yang  berfungsi  untuk  mentransfer  data  yang  ada  pada basisdata  transaksi  kedalam  basisdata  Data Warehouse yang sudah dimodelkan sedemikian rupa berdasarkan  hypercubes  yang  dibentuk  berdasarkan  laporan - laporan  yang  sering  dipakai  manajemen tingkat  atas.

Extraction

Ekstraksi (Extraction) adalah operasi ekstraksi data dari sebuah sistem sumber untuk digunakan lebih jauh dalam lingkungan Data Warehouse. Tahapan ini adalah yang paling pertama dalam proses ETL. Setelah Ekstraksi, data ini akan ditransformasikan dan di-load ke dalam Data Warehouse.

Metode Ekstraksi Secara Umum :

  • Statis, umumnya dilakukan pada saat pemuatan data  awal  dan  dilakukan  pada  saat  sistem OLTP  tidak berjalan.
  • Terjadwal,  ada  2  model  pengambilan  data terjadwal yaitu :
    • Berdasarkan  waktu,  setiap  pengaksesan record  basisdata  OLTP  ditandai  dengan waktu  berupa tanggal dan jam  dan secara terjadwal  sebuah  aplikasi  program  akan dijalankan  untuk  mengakses  Data  Warehouse  berdasarkan  perubahan  waktu  pada basisdata  OLTP.
    • Berdasarkan  perbedaan  berkas  lama  dan baru,  adanya  backup  harian  terhadap basisdata  OLTP,  dan  secara  terjadwal sebuah  aplikasi  program  akan  dijalankan untuk  mengakses  Data  Warehouse  jika sebuah tabel hari ini dan duplikat tabel hari sebelumnya berbeda.
  • Seketika,  ada  3  model  pengambilan  data seketika yaitu :
    • Dengan  mekanisme  log  transaksi,  setiap transaksi  insert,update  dan  delete  terhadap sebuah  record,  maka  basisdata   seketika akan  menulis  pada  log   berkas  yang digunakan  untuk  mem ilih  transaksi  yang telah berhasil dilaksanakan ( Committ).  Logberkas tidak berlaku jika kita menggunakan sistem data yang menggunakan indeks atau berkas teks.
    • Dengan  mekanisme  basis  data  trigger, sama seperti log transaksi pilihan ini hanya untuk  sistem  yang  menggunakan  aplikasi basisdata.  Trigger  adalah  sebuah  program kecil  yang  akan dijalankan  ketika  sebuah event yang telah didefinisikan terjadi.
    • Dengan  sumber  aplikasi,  modifikasi program  aplikasi  OLTP  agar  secara seketika mengakses Data Warehouse  setiap ada  proses  insert,update  dan  delete  pada sebuah  record .
Metode Ekstraksi Fisik (physical extraction)
  • Online Extraction
    • Data diekstrak langsung dari sistem sumber itu sendiri. Proses ekstraksi dapat berhubungan secara langsung dengan sistem sumber untuk mengakses tabel sumber atau ke sebuah sistem perantara yang menyimpan data dengan sebuah cara yang dikonfigurasikan terlebih dahulu (sebagai contoh log atau tabel perubahan). Dengan catatan bahwa sistem perantara secara fisik tidak berbeda dari sistem sumber.
  • Offline Extraction
    • Data tidak diekstrak secara langsung dari sistem sumber namun dibatasi secara eksplisit diluar sistem sumber orisinil. Data telah memiliki struktur atau telah dibuat melalui prosedur ekstraksi.
     Transformasi
      
       Proses  pengambilan  data mentah  yang  belum  bisa  disimpan  pada  Data Warehouse,  oleh  karena  itu  data  harus  sesuai standar  struktur  Data  Warehouse  yang  telah ditentukan  sehingga  bisa  disimpan  ke  Data Warehouse.  Transformation  data  terdiri  dari beberapa tahap yaitu:
  •  Seleksi, men- select record  dari tabel basisdata OLTP, tahap ini merupakan bagian dari proses pengambilan data.
  • Pemisahan  dan  Penggabungan,  manipulasi data yang dibutuhkan untuk men- select record OLTP, yaitu melakukan proses pemisahan dan penggabungan bila dibutuhkan.
  • Konversi,   dilakukan untuk 2 alasan yaitu:
  • Standarisasi  pengambilan  data  dari  berbagai sumber
  • Membuat  field   dapat  digunakan  Data Warehouse  dan dipahami oleh  pengguna
  • Ringkasan, data yang terlalu detail tidak selalu dibutuhkan pada Data Warehouse  oleh karena itu  perlu  diringkas  berdasarkan  kebutuhan Data Warehouse.
  • Pengayaan,  menggunakan  sebuah  atau  beberapa  field   untuk  membuat  hasil  data  yang terbaik  pada  Data  Warehouse ,  prinsip  ini merupakan  pengembangan  dari  kumpulan sebuah atau beberapa  field   dari beragam record yang  menghasilkan  sebuah  field   untuk  Data Warehouse.
       Fungsi Transformasi
  • Revisi Format 
  • Penghilangan  pengkodean  field
  • Menghitung  dan  menghasilkan  nilai
  • Memecah  field
  • Penggabungan informasi
  • Konversi kumpulan karakter
  • Konversi  unit  pengukuran
  • Konversi  tanggal  dan  jam
  • Ikhtisar
  • Restrukturisasi  kunci
  • Deduplikasi
      Loading 
  Merupakan tahapan yang berfungsi untuk memasukkan data ke dalam target akhiryaitu ke dalam suatu data warehouse
      Terdapat 4 Fase Load yaitu :
  • Panggil, jika data sudah ada pada tabel  Data Warehouse  maka  proses  panggil  ini  akan menghapus  data  yang  sudah  ada  dan menggantinya,  jika  data  belum  ada  maka proses ini akan mengisi tabel Data Warehouse.
  • Tambah, jika data sudah ada pada tabel  Data Warehouse  maka  proses  tambah  ini  akan menambah  data  dan  ada  kemungkinan terdapat duplikat  record  dan jika dikehendaki dimungkinkan duplikat record  ditolak.
  • Destructive  Merge,  jika  kunci  record  yang datang  cocok  dengan  kunci  record  yang  ada maka akan merubah record  yang ada dan jika record  yang datang adalah  record  baru maka akan menambah record   baru.
  • Constructive  Merge,  jika  kunci  record  yang datang  cocok  dengan  kunci  record  yang  ada maka  akan  menambah  record  baru  dan menandai  record  baru  tersebut  sebagai penghubung  ke  record  lama  yang  cocok dengan record   yang akan datang.

ETL Tools yang berbayar:
  • IBM Infosphere DataStage
  • Informatica PowerCenter
  • Oracle Warehouse Builder (OWB)
  • Oracle Data Integrator (ODI)
  • Microsoft SQL Server
ETL tools yang gratis (open source):
  • Pentaho Data Integration (Kettle)
  • Talend Integrator Suite
  • CloverETL
  • Jasper ETL
 



Selasa, 21 Oktober 2014

Star Schema, SnowFlake Schema, dan StarFlake Schema


Dimensional modeling merupakan suatu desain logic yang merepresentasikan data dalam bentuk standar, dan mudah dipahami , sehingga  mendukung untuk akses terhadap data dengan cepat.
  • Tabel Fakta adalah tabel utama dalam konsep  pemodelan dimensional dimana hasil perhitungan bisnis disimpan.
  • Tabel Dimensi berisi penjelasan deskriptif dari sebuah bisnis dan memiliki banyak kolom atau atribut.

Star schema merupakan struktuk logikal yang memiliki tabel fakta yang terdiri atas data faktual ditengahnya, dan dikelilingi oleh tabel-tabel dimensi yang berisi referensi data.
Karateristik Star Schema
  1. Pusat dari star disebut fact table
  2. Fact table mempunyai sebuah nilai aggregate dari data-data yang berasal dari tabel dimensi
  3. Setiap tabel dimensi berelasi langsung dengan fact table
  4. Tabel dimensi beisikan data tentang informasi atau waktu
  5. Relasi antara fact table dengan dimensi-dimensinya adalah 1 – N (one to many)
  6. Primary key pada tabel dimensi akan menjadi key pada fact table atau dapat diakatakan bahwa fact table memiliki kombinasi key dari tabel dimensi tersebut

Keuntungan :
  • Lebih simple
  • Mudah dipahami.
  • Hasil dari proses query juga relatif lebih cepat.

Kerugian :
  • Boros dalam space.






Snowflake Schema Merupakan pengembangan dari star schema, ia juga mempunyai satu atau lebih dimensi. Hanya saja pada snowflake, tabel yang berelasi pada fact table hanya tabel dimensi utama, sedangkan tabel yang lain dihubungkan pada tabel  dimensi utama.


Keuntungan & Kerugian Snowflake Schema

Keuntungan :
  • Pemakain space yang lebih sedikit
  • Update dan maintenance yang lebih mudah

Kerugian :
  • Model lebih komplek dan rumit
  • Proses query lebih lambat
  • Performance yang kurang bagus





Starflake schema adalah skema yang menggabungkan star schema dan snowflake schemas
Keduanya merupakan model-model dimensional, perbedaannya terletak pada implementasi fisikal. Skema snowflake memberi kemudahan pada perawatan dimensi, dikarenakan strukturnya yang lebih normalisasi. Sedangkan skema bintang lebih efisien serta sederhana dalam membuat query dan mudah  diakses secara langsung oleh pengguna.

Keuntungan :
  • Efisien dalam hal mengakses data
  • Dapat beradaptasi terhadap kebutuhan-kebutuhan user
  • Bersifat fleksibel terhadap perubahan yang terjadi khususnya perubahan yang mengarah pada  perkembangan
  • Memiliki kemampuan dalam memodelkan situasi bisnis secara umum
  • Meskipun skema yang dihasilkan sangat kompleks, tetapi pemrosesan query dapat diperkirakan, hal ini dikarenakan pada level terendah, setiap table fakta harus di query secara independen.


Selasa, 14 Oktober 2014

Arsitektur Data Warehouse | Star Schema dan Snowflake Schema

Karateristik Arsitektur Data Warehouse:
  • Data diambil dari sistem asal (sistem informasi yang ada), database dan file.
  • Data dari sistem asal diintegrasikan dan ditransformasi sebelum disimpan ke dalam Database Management System (DBMS) seperti Oracle,Ms SQL Server, Sybase dan masih banyak yang lainnya.
  • Data warehouse merupakan sebuah database terpisah bersifat hanya dapat dibaca yang dibuat khusus untuk mendukung pengambilan keputusan
  •  Pemakai mengakses data warehouse melalui aplikasi front end tool

Istilah-Istilah Dalam Arsitektur Data Warehouse
  •  Sumber Data (Data Source) adalah adalah database layer untuk tujuan operasional
    •  Data operasional dalam organisasi,misalnya basis data pelanggan dan produk
    •  Sumber eksternal yang diperoleh misalnya melalui Internet,basis data komersial,basis data pemasok atau pelanggan
  •  Staging area menyederhanakan proses pembuatan summary dan management data warehouse secara umum
  •  Metadata adalah istilah dari proses pengidentifikasian suatu atribut dan struktur dari sebuah data atau informasi. Metadata menjelaskan sebuah data itu sendiri
  •  Data mart merupakan subset dari data resource, biasanya berorientasi untuk suatu tujuan yang spesifik atau subjek data yang didistribusikan untuk mendukung kebutuhan bisnis.

Gambar Arsitektur Data Warehouse


Star Schema VS Snowflake Schema

Star Schema

Disebut star schema karena Entity Relationship Diagram atau ERD-nya yang menyerupai bintang, tabel fakta berada di tengah dengan dikelilingi tabel dimensi di sampingnya.

Dalam data warehouse, data-datanya akan disimpan dalam tabel fakta dan tabel dimensi. Tabel fakta akan menyimpan data-data utama sementara tabel dimensi mendeskripsikan setiap nilai dari suatu dimensi dan dapat direlasikan ke tabel fakta jika diperlukan. Data fakta merupakan data yang terukur besarannya, semisal jumlah siswa, banyaknya rupiah yang diperoleh, rata-rata IPK, dan sejenisnya.  Untuk lebih menjelaskan data fakta, maka kondisi saat data tersebut diukur turut disampaikan. Data kondisi inilah yang dipetakan dalam bentuk data dimensi. Kondisi yang dipetakan dalam dimensi umumnya berupa kondisi waktu, kondisi produk atau item, dan kondisi geografinya. Mendesain struktur star schema, dimulai dengan menentukan data apa yang ingin dilihat oleh pengguna (besarannya) dan bagaimana pengguna melihat  data tersebut (kondisi atau dimensinya).

Tabel dimensi memiliki primary key sederhana yang mengandung hanya satu atau dua kolom saja. Namun, tabel fakta akan memiliki sekumpulan foreign key yang disusun dari primary key komposit dan merupakan gabungan kolom-kolom tabel dimensi yang berelasi.


Snowflake Schema

Sedangkan snowflake schema lebih kompleks dibandingkan dengan star schema karena merupakan pengembangan dari star schema, karena tabel-tabel dimensinya merupakan hasil normalisasi dari beberapa tabel yang berhubungan.

Tabel Perbedaan Star Schema dan Snowflake Schema








Referensi :

  • Paiman, A.S., William, R., Willyam, F., 2010. Analisis Perbandingan Antara Model Dimensi Star Schema Dan Snowflake. Universitas Bina Nusantara, Jakarta.
  • http://kegiatanwindy.blogspot.com/2012/02/olap-online-analytical-processing.html
  • http://nanang.lecture.ub.ac.id/2010/04/17/skema-star-dan-snowflake/


Rabu, 24 September 2014

Data Warehouse dan Data Mart

Data warehouse sendiri adalah database yang berisi data dari beberapa system operasional yang terintegrasi dan terstruktur sehingga dapat digunakan untuk mendukung analisa dan proses pengambilan keputusan dalam bisnis. Data warehouse didesain untuk kita bisa melakukan query secara cepat. Informasi diturunkan dari data lain untuk dijadikan ringkasan, di proses untuk menghasilkan informasi lebih detail.
karakteristik yang dimiliki datawarehouse adalah :
  • Data terintegrasi dari berbagai sumber yang berasal dari proses transaksional (OLTP)
  • Data dibuat konsisten
  • Merupakan aggregate data/kesimpulan data, bukan data yang terperinci
  • Data bertahan lebih lama
  • Data tersimpan dalam format yang tepat sehinngga proses query dan analisa dapat dilakukan dengan cepat
  • Data bersifat read only


Data mart adalah lapisan akses dari data  warehouse lingkungan yang digunakan untuk mendapatkan data keluar bagi pengguna. Data mart adalah subset dari data warehouse yang biasanya berorientasi pada lini bisnis tertentu atau tim. Dalam beberapa penyebaran, masing-masing departemen atau unit bisnis dianggap sebagai pemilik data mart yang termasuk semua perangkat lunak, perangkat keras dan data. Dengan kata lain Data mart merupakan bagian dari datawarehouse dan berada level departemen  pada perusahaan atau organisasi tersebut. Data mart menangani sebuah business proses,  misalkan penjualan, maka hanya proses penjualan saja yang ditangani pada data mart.
Karakteristik Data Mart sebagai berikut:
  •        Data mart memfokuskan hanya pada kebutuhan-kebutuhan pemakai yang terkait dalam sebuah departemen atau fungsi bisnis.
  •          Data mart biasanya tidak mengandung data operasional yang rinci seperti pada data warehouse.
  •        Data mart hanya mengandung sedikit informasi dibandingkan dengan data warehouse. Data mart lebih mudah dipahami.
  •        Data mart bisa bersifat dependent atau independent.






Meta Data
Metadata sering disebut sebagai data tentang data atau informasi tentang informasi. Metadata ini mengandung informasi mengenai isi dari suatu data yang dipakai untuk keperluan manajemen file/data itu nantinya dalam suatu basis data. Jika data tersebut dalam bentuk teks, metadatanya biasanya berupa keterangan mengenai nama ruas (field), panjang field, dan tipe fieldnya: integer, character, date, dll. Untuk jenis data gambar (image), metadata mengandung informasi mengenai siapa pemotretnya, kapan pemotretannya, dan setting kamera pada saat dilakukan pemotretan. Satu lagi untuk jenis data berupa kumpulan file, metadatanya adalah nama-nama file, tipe file, dan nama pengelola (administrator) dari file-file tersebut.

Fungsi Metadata :
Metadata memberikan fungsi yang sama seperti katalog yaitu:
  •         membuat sumberdaya bisa ditemukan dengan menggunakan kriteria yang relevan;
  •        mengidentifikasi sumberdaya
  •         mengelompokkan sumberdaya yang serupa
  •         membedakan sumberdaya yang tak miliki kesamaan
  •         memberikan informasi lokasi



Referensi