Вы находитесь на странице: 1из 49

BAB I

Latar Belakang

Analytics membedakan bisnis di abad ke-21. Data transaksional, sosial, seluler, cloud, web,
dan sensor menawarkan potensi yang sangat besar. Tetapi tanpa alat untuk menganalisa jenis dan
volume data ini, tidak akan ada banyak perbedaan antara bisnis di abad ke-20 dan bisnis saat ini
kecuali untuk akses seluler. Data berkualitas tinggi dan keahlian manusia sangat penting untuk
nilai analitik. Keahlian manusia diperlukan karena analisis saja tidak dapat menjelaskan alasan
untuk tren atau hubungan; menjelaskan tindakan apa yang harus diambil; atau memberikan
konteks yang cukup untuk menentukan apa yang diwakilkan oleh angka dan bagaimana
menginterpretasikannya. Database, data warehouse, big data, dan intelijen bisnis (BI) teknologi
berinteraksi untuk menciptakan ekosistem biz-tech baru. Analitik data besar dan BI menemukan
wawasan atau hubungan minat yang mungkin tidak diakui. Mereka memungkinkan manajer untuk
membuat keputusan dan bertindak dengan kejelasan, kecepatan, dan kepercayaan diri. Analitik
data besar bukan hanya tentang mengelola lebih banyak atau beragam data. Sebaliknya, ini adalah
tentang mengajukan pertanyaan baru, merumuskan hipotesis baru, eksplorasi dan penemuan, dan
membuat keputusan berdasarkan data. Pada akhirnya, bagian besar dari upaya analitik data besar
adalah penggunaan teknik analisis baru. Data pertambangan atau teks yang diambil dari operasi
bisnis sehari-hari mengungkapkan informasi berharga, seperti keinginan pelanggan, produk yang
paling penting, atau proses yang dapat dibuat lebih efisien. Wawasan ini memperluas kemampuan
untuk memanfaatkan peluang, meminimalkan risiko, dan mengendalikan biaya. Meskipun Anda
mungkin berpikir bahwa potongan-potongan kertas fisik adalah peninggalan dari masa lalu, di
sebagian besar kantor, kebalikannya adalah benar. Survei Aberdeen Group terhadap 176 organisasi
di seluruh dunia menemukan bahwa volume dokumen fisik meningkat hingga 30 persen per tahun.
Dokumen teknologi manajemen arsip data digital dan fisik untuk memenuhi kebutuhan bisnis,
serta persyaratan peraturan dan hukum (Rowe, 2012).

1
BAB II
Pembahasan

Data Management, Big Data Analytics, and Records


Management
Analytics membedakan bisnis diabad ke-21. Data transaksional, sosial, seluler, cloud, web,
dan sensor menawarkan potensi yang sangat besar. Tetapi tanpa alat untuk menganalisa jenis dan
volume data ini, tidak akan ada banyak perbedaan antara bisnis di abad ke-20 dan bisnis saat ini
kecuali untuk akses seluler. Data berkualitas tinggi dan keahlian manusia sangat penting untuk
nilai analitik (Gambar 3.1). Keahlian manusia diperlukan karena analisis saja tidak dapat
menjelaskan alasan untuk tren atau hubungan; menjelaskan tindakan apa yang harus diambil; atau
memberikan konteks yang cukup untuk menentukan apa yang diwakilkan oleh angka dan
bagaimana menginterpretasikannya.

Keahlian
manusia

+ Tren atau hubungan


Konteks untuk
Gambar 3.1 Analisis data, memahami apa yang
Analisis data diwakilkan oleh angka
dan keahlian manusia dan
dan bagaimana
data berkualitas tinggi,
menafsirkannya.
diperlukan untuk
+ Tindakan apa yang harus
mendapatkan informasi yang diambil
dapat ditindaklanjuti
Data
berkualitas
tinggi

Database, data warehouse, big data, dan intelijen bisnis (BI) teknologi berinteraksi untuk
menciptakan ekosistem biz-tech baru. Analitik data besar dan BI menemukan wawasan atau
hubungan minat yang mungkin tidak diakui. Mereka memungkinkan manajer untuk membuat
keputusan dan bertindak dengan kejelasan, kecepatan, dan kepercayaan diri. Analitik data besar
bukan hanya tentang mengelola lebih banyak atau beragam data. Sebaliknya, ini adalah tentang

2
mengajukan pertanyaan baru, merumuskan hipotesis baru, eksplorasi dan penemuan, dan membuat
keputusan berdasarkan data. Pada akhirnya, bagian besar dari upaya analitik data besar adalah
penggunaan teknik analisis baru. Data pertambangan atau teks yang diambil dari operasi bisnis
sehari-hari mengungkapkan informasi berharga, seperti keinginan pelanggan, produk yang paling
penting, atau proses yang dapat dibuat lebih efisien. Wawasan ini memperluas kemampuan untuk
memanfaatkan peluang, meminimalkan risiko, dan mengendalikan biaya. Meskipun Anda
mungkin berpikir bahwa potongan-potongan kertas fisik adalah peninggalan dari masa lalu, di
sebagian besar kantor, kebalikannya adalah benar. Survei Aberdeen Group terhadap 176 organisasi
di seluruh dunia menemukan bahwa volume dokumen fisik meningkat hingga 30 persen per tahun.
Dokumen teknologi manajemen arsip data digital dan fisik untuk memenuhi kebutuhan bisnis,
serta persyaratan peraturan dan hukum (Rowe, 2012).
KASUS 3.1 KASUS PEMBUKAAN
Coca-Cola mengelola pada titik yang membuat perbedaan
TANTANGAN MANAJEMEN DATA MANAJEMEN COCA-COLA

The Coca-Cola Company

Merek Etika & Keberlanjutan


Teknologi digital
Perusahaan minuman Bisnis
nonalkohol terbesar di dunia Pusat data terpusat Enterprise
Berfokus pada inisiatif yang
dengan lebih dari 500 merek data warehouse (EDW) Big
mengurangi jejak lingkungan
minuman, kopi siap saji, jus, data analytics Model
mereka; mendukung aktif,
dan minuman jus. keputusan 70 juta pengikut
hidup sehat; menciptakan
Facebook.
Memiliki sistem distribusi lingkungan kerja yang aman;
minuman terbesar di dunia, dan meningkatkan
dengan konsumen di lebih perkembangan ekonomi
dari 200 negara. masyarakat di mana mereka
beroperasi.
Produk dikonsumsi pada
tingkat 1,9 miliar porsi per
hari di seluruh dunia.

3
Gambar 3.2 Gambaran Umum Perusahaan Coca-Cola

The Coca-Cola Company adalah perusahaan Fortune 100 dengan lebih dari $ 48 miliar
dalam pendapatan penjualan dan laba $ 9 miliar (Gambar 3.2). Pemimpin pasar mengelola dan
menganalisis beberapa petabyte (Pb) data yang dihasilkan atau dikumpulkan dari lebih dari 500
merek dan konsumen di 206 negara. Mitra pembotolannya menyediakan data penjualan dan
pengiriman, sementara pelanggan ritel mengirimkan data transaksi dan merchandising. Sumber
data lain tercantum dalam Tabel 3.1.
TABEL 3.1 Membuka Ikhtisar Kasus
Perusahaan • The Coca-Cola Company, coca-cola.com
• Keberlanjutan: www.coca-
colacompany.com/sustainability
• $ 48 miliar dalam pendapatan penjualan dan
laba sebesar $ 9 miliar, 2013
Industri • Perusahaan global memproduksi, menjual,
dan mendistribusikan minuman non-alkohol.
Lini produk • Lebih dari 500 merek minuman ringan dan
berkilau, kopi siap saji, jus, dan minuman jus.
Teknologi digital • Gudang data perusahaan (EDW)
• Data dan analisis besar
• Intelijen bisnis
• Pada tahun 2014, pindah dari pendekatan
desentralisasi ke pendekatan terpusat, di mana
data digabungkan secara terpusat dan tersedia
melalui platform bersama di seluruh
organisasi.
Tantangan bisnis • Pada tahun 2010, Coca-Cola memiliki 74
database unik, banyak dari mereka
menggunakan perangkat lunak yang berbeda
untuk menyimpan dan menganalisis data.

4
Berurusan dengan database dan sistem
pelaporan yang tidak kompatibel tetap
menjadi masalah dari tahun 2003 hingga 2013.
• Chief Big Data Insights Offi cer Esat Sezer
telah menyatakan bahwa Coca-Cola
mengambil pendekatan strategis daripada
pendekatan taktis dengan data besar.
Sumber data global • Data transaksi dan merchandising
• Data dari jaringan nasional dari 74
pembotolan
• Data ritel multisaluran
• Data profi le pelanggan dari program
loyalitas
• Data media sosial
• Data rantai suplai
• Data pesaing
• Data penjualan dan pengiriman dari mitra
pembotolan.

Dalam hal ini Database terpusat menyimpan data di satu lokasi yang dapat diakses dari
mana saja. Pencarian bisa cepat karena mesin pencari tidak perlu memeriksa beberapa lokasi
terdistribusi untuk menemukan data yang responsif. Sedangkan Gudang data yang
mengintegrasikan data dari database di seluruh perusahaan disebut gudang data perusahaan
(EDW).

Gambar 3.3 Coca-Cola World Headquarters di Atlanta, GA, diumumkan pada 25 Januari
2010, bahwa bahan kemasan baru untuk botol plastik akan dibuat sebagian dari tanaman sebagai
bagian dari upaya berkelanjutannya.

5
Pada kasus ini Manajemen Data Perusahaan Seperti kebanyakan perusahaan global, Coca-
Cola mengandalkan manajemen data perusahaan yang canggih, BI, dan teknologi analitik untuk
mempertahankan kinerjanya di pasar yang sangat kompetitif (Gambar 3.3). Data dikelola dalam
basis data terpusat, seperti yang diilustrasikan pada Gambar 3.4.

Gambar 3.4 Arsitektur data terpusat.


Data pergudangan, data besar, analitik, pemodelan data, dan media sosial digunakan untuk
menanggapi aktivitas pesaing, perubahan pasar, dan preferensi konsumen. Untuk mendukung
strategi dan operasi bisnisnya, Coca-Cola berubah dari pendekatan database desentralisasi ke
pendekatan database terpusat. Sekarang datanya digabungkan secara terpusat dan dapat diakses
melalui platform bersama diseluruh organisasi (Gambar 3.5).

Gambar 3.5 Data dari transaksi online dan offline disimpan dalam basis data. Data tentang entitas
seperti pelanggan, produk, pesanan, dan karyawan disimpan dengan cara yang terorganisasi.
Tujuan utama dari strategi manajemen data adalah untuk membantu pelanggan ritelnya
seperti Walmart, yang menjual produk Coca-Cola senilai $ 4 miliar setiap tahun, menjual lebih
banyak produk Coca-Cola dan untuk meningkatkan pengalaman konsumen. Perusahaan telah
menerapkan program tata kelola data untuk memastikan kepekaan data budaya dihormati.

6
KINERJA BISNIS SUSTAINING
Semua data distandardisasi melalui serangkaian proses manajemen data master (MDM),
sebagaimana dibahas dalam Bab 2. Sebuah gudang data perusahaan (EDW) menghasilkan satu
tampilan dari semua data ritel multisaluran. EDW menciptakan pandangan tepercaya tentang
pelanggan, penjualan, dan transaksi, memungkinkan Coca-Cola merespons dengan cepat dan
akurat terhadap perubahan dalam kondisi pasar.
Di seluruh divisi dan departemen Coca-Cola, volume data yang sangat besar dianalisis
untuk membuat keputusan yang lebih sensitif dan lebih sensitif terhadap waktu mengenai produk,
pemasaran pembeli, rantai pasokan, dan produksi. Point-of-sale (POS) data diambil dari saluran
ritel dan digunakan untuk membuat profil pelanggan. Profil-profil tersebut dikomunikasikan
melalui ystem pelaporan iPad terpusat. Data POS dianalisis untuk mendukung perencanaan
kolaboratif, peramalan, dan proses pengisian ulang dalam rantai pasokannya. (Manajemen rantai
suplai, perencanaan kolaboratif, peramalan, dan pengisian dibahas secara lebih rinci di Bab 10.)
Pendekatan Coca-Cola terhadap Model Data dan Keputusan Besar Data besar
diperlakukan sebagai aset strategis. Chief Big Data Insights Offi cer Esat Sezer telah menyatakan
bahwa Coca-Cola mengambil pendekatan strategis daripada pendekatan taktis dengan data besar.
Perusahaan ini jauh lebih maju dalam penggunaan data besar untuk mengelola produknya,
pendapatan penjualan, dan pengalaman pelanggan dalam waktu dekat dan untuk mengurangi
biaya. Sebagai contoh, itu memotong biaya lembur hampir setengah dengan menganalisis data
pusat layanan. Data besar membantu Coca-Cola berhubungan dengan 70 juta pengikut Facebook-
nya - banyak dari mereka menyokong merek Coke.
Data besar memainkan peran kunci dalam memastikan bahwa jus jeruk rasanya di tahun
yang sama dan tersedia di mana saja di dunia. Jeruk yang digunakan oleh Coca-Cola memiliki
puncak musim pertumbuhan hanya tiga bulan. Memproduksi jus jeruk dengan rasa konsisten
sepanjang tahun meskipun kualitas pasokan jeruk yang tidak konsisten adalah kompleks. Untuk
menghadapi kompleksitas, model keputusan jus jeruk dikembangkan, model Buku Hitam. Model
keputusan mengkuantifikasi hubungan antar variabel, yang mengurangi ketidakpastian. Buku
Hitam menggabungkan data terperinci tentang 600 rasa yang membentuk oranye, cuaca, preferensi
pelanggan, hasil panen yang diharapkan, tekanan biaya, preferensi konsumen regional, dan tingkat
keasaman atau kemanisan. Model ini menentukan cara memadukan jus jeruk untuk menciptakan
rasa yang konsisten. Model jus Black Book Coke dianggap sebagai salah satu aplikasi analitik

7
bisnis paling rumit. Diperlukan analisis hingga 1 quintillion (10E18) variabel keputusan untuk
memberikan perpaduan optimal secara konsisten.
Dengan kekuatan data besar dan model keputusan, Coca-Cola dipersiapkan untuk
gangguan pasokan jauh sebelumnya. Menurut Doug Bippert, wakil presiden Coca-Cola untuk
percepatan bisnis, “Jika kita memiliki badai atau pembekuan, kita dapat dengan cepat
merencanakan ulang bisnis dalam lima atau 10 menit hanya karena kita telah memodelkannya
secara matematis” (BusinessIntelligence.com , 2013b).
Sumber: Disusun dari Burns (2013), Fernandez (2012), BusinessIntelligence.com (2013a, 2013b), CNNMoney
(2014), Big Data Startups (2013), dan Teradata (2012).

3.1 Sistem Manajemen Database


Data adalah kekuatan pendorong di balik setiap bisnis yang sukses. Database adalah
kumpulan kumpulan data atau catatan yang disimpan secara sistematis. Didalam data juga
ditemukan Volatile mengacu pada data yang sering berubah. Operasi, perencanaan, kontrol, dan
semua fungsi manajemen lainnya sangat bergantung pada informasi yang diproses, bukan data
mentah. Sistem manajemen basis data atau kadang disingkat SMBD, adalah suatu sistem atau
perangkat lunak yang dirancang untuk mengelola suatu basis data dan menjalankan operasi
terhadap data yang diminta banyak pengguna. Dan tidak ada yang mau menunggu laporan bisnis
penting atau jawaban spesifik untuk pertanyaan mereka. Teknologi manajemen data yang
membuat pengguna tetap mendapat informasi dan mendukung berbagai tuntutan bisnis adalah
sebagai berikut:
 Database menyimpan data yang dihasilkan oleh aplikasi bisnis, sensor, operasi, dan sistem
pemrosesan transaksi (TPS). Data dalam basis data sangat tidak stabil. Perusahaan
menengah dan besar biasanya memiliki banyak basis data dari berbagai jenis.
 Gudang data mengintegrasikan data dari berbagai basis data dan silo data, dan
mengaturnya untuk analisis kompleks, penemuan pengetahuan, dan untuk mendukung
pengambilan keputusan. Misalnya, data diambil dari database, diproses untuk
menstandardisasi formatnya, dan kemudian dimuat ke gudang data pada waktu tertentu,
seperti mingguan. Dengan demikian, data dalam gudang data tidak mudah berubah dan
siap untuk dianalisis.

8
 Data mart adalah gudang data berskala kecil yang mendukung satu fungsi atau satu
departemen. Perusahaan yang tidak mampu berinvestasi dalam pergudangan data dapat
dimulai dengan satu atau lebih data mart.
 Alat dan teknik intelijen bisnis (BI) memproses data dan melakukan analisis statistik
untuk wawasan dan penemuan — yaitu, untuk menemukan hubungan yang bermakna
dalam data, memberi informasi secara real time, mendeteksi tren, dan mengidentifikasi
peluang dan risiko.
Teknik pemrosesan data, kekuatan pemrosesan, dan kemampuan manajemen kinerja
perusahaan telah mengalami kemajuan revolusioner dalam beberapa tahun terakhir karena alasan
yang sudah kita ketahui dan rasakan yaitu data besar, mobilitas, dan komputasi awan. Dekade
terakhir, bagaimanapun, telah melihat munculnya pendekatan baru, pertama dalam pergudangan
data dan, baru-baru ini, untuk pemrosesan transaksi, seperti yang dibahas dalam bab ini.

SISTEM MANAJEMEN DATABASE DAN SQL


Manajemen basis data sistem (DBMSs) adalah perangkat lunak yang digunakan untuk
mengelola penambahan, pembaruan, dan penghapusan data saat transaksi terjadi, dan untuk
mendukung data pertanyaan dan pelaporan. Mereka adalah sistem OLTP. Sistem manajemen
basis data (DBMSs) terintegrasi dengan sistem pengumpulan data seperti TPS dan aplikasi bisnis;
menyimpan data dengan cara yang terorganisasi; dan menyediakan fasilitas untuk mengakses dan
mengelola data itu.
TECH NOTE 3.1 Faktor-faktor Yang Menentukan Kinerja DBMS
Faktor-faktor yang perlu dipertimbangkan ketika mengevaluasi kinerja
database adalah sebagai berikut.
Kueri adalah
permintaan
Latensi data. Latensi adalah waktu yang berlalu (atau penundaan) antara saat
pengguna ad
hoc (tidak data dibuat dan kapan data tersedia untuk kueri atau laporan. Aplikasi memiliki
direncanakan)
toleransi berbeda untuk latensi. Sistem database cenderung memiliki latensi
untuk data
tertentu. yang lebih pendek daripada gudang data. Short latency membebankan lebih
banyak batasan pada suatu sistem.

9
Kemampuan untuk menangani volatilitas data. Basis data memiliki
kekuatan pemrosesan untuk menangani volatilitas data. Tingkat di mana data
ditambahkan, diperbarui, atau dihapus menentukan beban kerja bahwa
database harus mampu mengendalikan untuk mencegah masalah dengan
tingkat respons terhadap pertanyaan.
Waktu respons kueri. Volume data berdampak waktu respons terhadap kueri
dan eksplorasi data. Banyak database data pra-tahap — yaitu, meringkas atau
menghitung sebelumnya hasil — sehingga kueri memiliki tingkat respons yang
lebih cepat.
Konsistensi data. Konsistensi langsung berarti bahwa segera setelah data
diperbarui, respons terhadap permintaan baru akan mengembalikan nilai yang
diperbarui. Dengan konsistensi pada akhirnya, tidak semua respons kueri akan
mencerminkan perubahan data secara seragam. Hasil query yang tidak
konsisten dapat menyebabkan masalah serius untuk analisis yang bergantung
pada data akurat.
Prediktabilitas pertanyaan. Semakin besar jumlah kueri ad hoc atau tak
terduga, semakin fleksibel database yang dibutuhkan. Manajemen kinerja basis
data atau kueri lebih sulit ketika beban kerja tidak dapat diprediksi sehingga
tidak dapat dipersiapkan sebelumnya. Kemampuan untuk menangani beban
kerja adalah kriteria yang paling penting ketika memilih database.

Selama 25 tahun terakhir, database relasional telah menjadi model database standar yang
diadopsi oleh sebagian besar perusahaan.menyimpan Database relasional data dalam tabel yang
terdiri dari kolom dan baris, mirip dengan format spreadsheet, seperti yang ditunjukkan pada
Gambar 3.6.

10
Gambar 3.6 Ilustrasi format data terstruktur. Data numerik dan alfanumerik disusun dalam baris
dan kolom standar yang mirip dengan yang ada dalam spreadsheet Excel.

Sistem manajemen relasional (RDBMSs) menyediakan akses ke data menggunakan


bahasa deklaratif-bahasa query terstruktur (SQL). SQL adalah bahasa query standar untuk
mengakses database. Bahasa deklaratif menyederhanakan akses data dengan mensyaratkan
bahwa pengguna hanya menentukan data apa yang ingin mereka akses tanpa mendefinisikan
bagaimana akses akan dicapai. Dalam penggunaannya, Perintah-Perintah SQL adalah sebagai
berikut :
 CREATE : Perintah ini digunakan untuk membuat, termasuk di antaranya membuat
database baru, tabel baru, view baru, dan kolom.
Contoh : > create table karyawan (nim char(8) primary key,nama_karyawan varchar(20),nilai
integer(3),alamat varchar(25);
 ALTER : Perintah ini digunakan untuk mengubah struktur tabel yang telah dibuat.
Pekerjaannya mencakup mengganti nama tabel, menambah kolom, mengubah kolom,
menghapus kolom, maupun memberikan atribut pada kolom.
Contoh : >alter table karyawan rename tingkat pendidikan;
 DROP : Perintah ini digunakan untuk menghapus database dan tabel.
Contoh : >Alter table ‘karyawan’ drop ‘alamat’;
 INSERT : Perintah ini digunakan untuk menyisipkan atau memasukkan data baru ke
dalam tabel. Penggunaannya setelah database dan tabel selesai dibuat.
Contoh : Insert into karyawan values (“08052926”, “Frenky”,”70”);
 SELECT : Perintah ini digunakan untuk mengambil data atau menampilkan data dari
satu tabel atau beberapa tabel dalam relasi. Data yang diambil dapat kita tampilkan dalam layar
prompt MySQL secara langsung maupun ditampilkan pada tampilan aplikasi.
Contoh : Select nama_karyawan from karyawan where nilai kinerja = 70;
 UPDATE : Perintah ini digunakan untuk memperbarui data lama menjadi data terkini.
Jika Anda memiliki data yang salah atau kurang up to date dengan kondisi sekarang, maka dapat
diubah isi datanya menggunakan perintah UPDATE.
Contoh: >karyawan set nim = ‘08052926’ = 08052927;
 DELETE : Perintah ini digunakan untuk menghapus data dari tabel. Biasanya data yang
dihapus merupakan data yang sudah tidak diperlukan lagi. Pada saat menghapus data, perintah

11
yang telah dijalankan tidak dapat digagalkan, sehingga data yang telah hilang tidak dapat
dikembalikan lagi
Contoh : >delete form karyawan;
 GRANT : Perintah ini digunakan untuk memberikan hak/ijin akses oleh administrator
(pemilik utama) server kepada user (pengguna biasa). Hak akses tersebut berupa hak membuat
(CREATE), mengambil (SELECT), menghapus (DELETE), mengubah (UPDATE), dan hak
khusus berkenaan dengan sistem databasenya.
Contoh : Grant Privilages on namatabel To namapengguna.

Gambar 3.7 Sebuah contoh dari SQL untuk mengakses informasi karyawan berdasarkan tanggal
penerimaan.

Fungsi DBMS
Pandangan yang akurat dan konsisten tentang data di seluruh perusahaan diperlukan agar
orang dapat membuat keputusan yang terinformasi dan dapat ditindaklanjuti yang mendukung
strategi bisnis. Fungsi yang dilakukan oleh DBMs untuk membantu membuat tampilan seperti itu
adalah:
 Penyaringan dan pembuatan profil data: Memproses dan menyimpan data secara efisien.
Periksa data untuk kesalahan, inkonsistensi, redudansi, dan informasi yang tidak lengkap.
 Integritas data dan pemeliharaan: Perbaiki, standarisasi, dan verifikasi konsistensi dan
integritas data.
 Sinkronisasi data: Mengintegrasikan, mencocokkan, atau menautkan data dari sumber
yang berbeda.
 Keamanan data: Periksa dan kontrol integritas data dari waktu ke waktu.
 Akses data: Memberikan akses yang sah ke data dengan cara yang direncanakan dan ad
hoc dalam waktu yang dapat diterima.

12
Perangkat keras komputasi saat ini mampu mengolah data besar yang tidak dapat dikelola
beberapa tahun lalu dan membuatnya tersedia sesuai permintaan melalui jaringan berkabel atau
nirkabel (Gambar 3.8).

Gambar 3.8 Kueri basis data diproses secara waktu nyata (a), dan hasilnya ditransmisikan melalui
jaringan berkabel atau nirkabel ke layar komputer atau perangkat genggam (b).
Pemrosesan Transaksi Online dan Pemrosesan Analisis Online
Sistem pemrosesan transaksi online (OLTP) dirancang untuk mengelola data transaksi, yang
tidak stabil. Ketika sebagian besar transaksi bisnis terjadi misalnya, sebuah barang dijual atau
dikembalikan, pesanan dikirim atau dibatalkan, pembayaran atau setoran dilakukan perubahan
dilakukan segera ke database. Perubahan online ini adalah tambahan, pembaruan, atau
penghapusan. DBMS mencatat dan memproses transaksi dalam basis data, dan mendukung kueri
dan pelaporan. Mengingat fungsinya, DBMS disebut sebagai sistem pemrosesan transaksi
online (OLTP). OLTP adalah desain database yang memecah informasi yang rumit menjadi tabel
data yang lebih sederhana untuk mencapai keseimbangan antara efisiensi pemrosesan transaksi
dan efisiensi query. OLTP database memproses jutaan transaksi per detik. Namun, basis data tidak
dapat dioptimalkan untuk penambangan data, sistem pemrosesan analitik online kompleks
(OLAP), dan dukungan keputusan. Keterbatasan ini menyebabkan pengenalan teknologi data
warehouse. Data warehouse dan data mart dioptimalkan untuk OLAP, penambangan data, BI, dan
dukungan keputusan. OLAP adalah istilah yang digunakan untuk menggambarkan analisis data
kompleks dari gudang data. Singkatnya, database dioptimalkan untuk pemrosesan transaksi dan
pemrosesan query yang sangat cepat. Gudang data dioptimalkan untuk analisis.

13
DBMS DAN DATA WAREHOUSING VENDORS RESPOND TERHADAP DATA
TERBARU
Salah satu pendorong utama perubahan di pasar manajemen data adalah peningkatan
jumlah data yang harus dikelola. Perusahaan membutuhkan DBMSs yang kuat dan solusi
pergudangan data, analitik, dan pelaporan. Empat vendor yang mendominasi pasar ini yaitu
Oracle, IBM, Microsoft, dan Teradata yang terus merespons kebutuhan manajemen data yang
berkembang dengan perangkat lunak dan perangkat keras yang lebih cerdas dan canggih.
Teknologi perangkat keras canggih memungkinkan penskalaan ke volume data dan beban kerja
yang jauh lebih tinggi dari sebelumnya, atau dapat menangani beban kerja spesifik. Database
relasional tujuan umum yang lebih tua DBMS tidak memiliki skalabilitas atau fleksibilitas untuk
beban kerja khusus atau sangat besar, tetapi sangat baik pada apa yang mereka lakukan.

Peringkat Vendor DBMS


DBMS perusahaan dengan peringkat tertinggi pada pertengahan 2014 adalah MySQL Oracle,
Microsoft SQL Server, PostgreSQL, DB2 IBM, dan Database Teradata. Sebagian besar berjalan
di beberapa sistem operasi (OS).
 MySQL, yang diakuisisi oleh Oracle pada Januari 2010, memberdayakan ratusan ribu situs
web komersial dan sejumlah besar aplikasi internal perusahaan.
 kemudahan penggunaan, ketersediaan, dan integrasi sistem operasi Windows dari SQL
Server membuatnya menjadi pilihan yang mudah bagi perusahaan yang memilih produk
Microsoft untuk perusahaan mereka.
 PostgreSQL adalah database sumber terbuka paling canggih, yang sering digunakan oleh
aplikasi game online dan Skype, Yahoo !, dan MySpace.
 DB2 banyak digunakan di pusat data dan berjalan di Linux, UNIX, Windows, dan
mainframe.

Tren Menuju Sistem NoSQL


RDBMSs masih mesin database yang dominan, tetapi kecenderungan menuju NoSQL
(singkatan dari "tidak hanya SQL") sistem sudah jelas. Sistem NoSQL meningkat dalam
popularitas sebesar 50 persen dari 2013 hingga 2014. Meskipun NoSQL telah ada selama DBMS
relasional, istilah itu sendiri tidak diperkenalkan sampai 2009. Saat itulah banyak sistem baru

14
dikembangkan untuk mengatasi persyaratan DBMS yaitu, menangani data besar, skalabilitas, dan
toleransi kesalahan untuk aplikasi Web besar. Skalabilitas berarti sistem dapat meningkatkan
ukuran untuk menangani pertumbuhan data atau beban peningkatan jumlah pengguna yang
bersamaan. Untuk membuatnya berbeda, sistem skalabel secara efisien memenuhi tuntutan
komputasi kinerja tinggi. Toleransi kesalahan berarti tidak ada satu kegagalan yang
menyebabkan hilangnya layanan.
Sesuai dengan namanya basis data NoSQL adalah jenis basis data yang tidak menggunakan
perintah SQL dalam memanipulasi (menyimpan maupun mengambil data) basis data tersebut.
Kebanyakan basis data NoSQL digunakan dalam dunia aplikasi web waktu nyata (real-time web
app). Berbeda dengan basis data SQL dimana meskipun berbeda-beda pembuat namun cara kerja
maupun cara penggunaannya relatif sama. Contohnya sama-sama menggunakan tabel yang
dihubungkan oleh relasi-relasi, manipulasi data dengan bahasa SQL, dsb. Basis data NoSQL bisa
sangat berbeda satu sama lain. Dilihat dari cara penyimpanan data saja basis data NoSQL tersebar
dari cara penyimpanan:
 Key-Value based (disimpan dalam bentuk kunci-isi berpasangan)
 Document based (disimpan dalam dokumen-dokumen)
 Column based (disimpan dalam kolom-kolom)
 Graph based (disimpan dalam bentuk graf)
Karena dari cara penyimpanannya saja sudah beda sudah tentu cara penambahan maupun
pengambilan datanya juga berbeda.
Sistem NoSQL adalah kelompok sistem database heterogen yang mencoba untuk
mengklasifikasikannya tidak sangat membantu. Namun, kelebihan umum mereka adalah :
 Kinerja lebih tinggi
 Distribusi data yang mudah pada node yang berbeda, yang memungkinkan skalabilitas dan
toleransi kesalahan
 Fleksibilitas yang lebih besar
 Administrasi yang lebih sederhana
Mulai tahun 2010 dan berlanjut hingga tahun 2014, Microsoft telah mengerjakan penulisan
ulang pertama dari eksekusi query SQL Server sejak Versi 7 dirilis pada tahun 1998. Tujuannya
adalah untuk menawarkan kecepatan seperti NoSQL tanpa mengorbankan kemampuan database
relasional.

15
Dengan sebagian besar penawaran NoSQL, sebagian besar biaya tidak terletak pada
perolehan database, melainkan dalam mengimplementasikannya. Data perlu dipilih dan
dimigrasikan (dipindahkan) ke database baru. Microsoft berharap dapat mengurangi biaya ini
dengan menawarkan solusi migrasi.

ARSITEKTUR DATABASE TERPUSAT DAN DISTRIBUSI


Database terpusat atau terdistribusi, seperti yang ditunjukkan pada Gambar 3.9. Kedua
jenis database membutuhkan satu atau lebih cadangan dan harus diarsipkan di tempat dan di luar
lokasi jika terjadi kecelakaan atau insiden keamanan.

Gambar 3.9 Perbandingan basis data terpusat dan terdistribusi.


Arsitektur Basis Data Tersentralisasi
Sebuah pangkalan data terpusat yang menyimpan semua file terkait di lokasi pusat seperti
yang Anda baca dalam kasus pembukaan Coca-Cola. Selama beberapa dekade platform basis data
utama terdiri dari file database terpusat pada komputer mainframe besar. Manfaat konfigurasi
database terpusat termasuk:
1. Kontrol kualitas data yang lebih baik. Konsistensi data lebih mudah ketika data disimpan di
satu lokasi fisik karena penambahan data, pembaruan, dan penghapusan dapat dilakukan dengan
cara yang terawasi dan teratur.
2. Keamanan TI yang lebih baik. Data diakses melalui komputer host terpusat, di mana mereka
dapat dilindungi dengan lebih mudah dari akses tidak sah atau modifikasi.
Kerugian utama dari database terpusat, seperti semua sistem terpusat, adalah penundaan transmisi
ketika pengguna geodispersed. Perangkat keras dan jaringan yang lebih kuat mengimbangi
kerugian ini.

16
Arsitektur Basis Data Terdistribusi
Sistem database terdistribusi memungkinkan aplikasi pada komputer dan ponsel untuk
mengakses data dari database lokal dan remote, seperti yang digambarkan pada Gambar 3.10.

Gambar 3.10 Arsitektur basis data terdistribusi untuk kantor pusat, manufaktur, dan penjualan
dan pemasaran.
Database terdistribusi menggunakan arsitektur client / server untuk memproses permintaan
informasi. Komputer dan perangkat seluler yang mengakses server disebut klien. Basis data
disimpan di server yang berada di pusat data perusahaan, awan pribadi, atau cloud publik.
Kelebihan dan Kekurangan Basis Data Terdistribusi
Pemanfaatan basis data terdistribusi dapat memberikan manfaat bagi sistem yang
mengimplementasikannya. Hal ini disebabkan oleh kelebihan-kelebihan yang dimilikinya, antara:
 Kinerja yang lebih baik karena data ditempatkan di tempat yang sesuai dengan kebutuhan
dan komputer-komputer dalam sistem dapat bekerja secara paralel, sehingga pembebanan
pada komputer (server) menjadi seimbang.
 Alasan ekonomis, yaitu bahwa merancang sistem yang terdiri atas jaringan komputer-
komputer kecil (sederhana) dibandingkan dengan mengimplementasikan komputer tunggal
yang canggih.
 Alasan modularitas, yaitu bahwa sistem-sistem yang bekerja dalam basis data terdistribusi
dapat dimodifikasi, ditambah, atau dikurangi tanpa memengaruhi modul lain (sistem lain
dalam basis data terdistribusi). Dengan pembagian lokasi data, jika terjadi masalah atau
musibah pada sistem, tidak semua data terancam, melainkan hanya data pada tempat-
tempat tertentu.
 Alasan organisasi dan otonomi pada sistem-sistem yang berpartisipasi, misalnya pada
suatu kantor perusahaan, terdapat beberapa departemen. Dengan basis data terdistribusi,

17
data-data perusahaan dapat disebar ke tiap-tiap departemen yang bertanggung jawab
atasnya.
Akan tetapi, di samping kelebihan-kelebihan yang dimilikinya, basis data terdistribusi juga
memiliki kendala, antara lain
 Masalah kompleksitas, yaitu bukan pekerjaan yang mudah untuk membuat basis data yang
tersebar terlihat sebagai satu kesatuan. Administrator basis data mempunyai tugas ekstra
untuk menjaga agar basis data yang tersebar di berbagai lokasi terlihat transparan. Di
samping itu, pemeliharaan sistem-sistem yang berlainan lebih kompleks ketimbang
pemeliharaan sistem besar yang utuh sebagai satu kesatuan. Tingginya kompleksitas juga
dapat menyebabkan pembengkakan biaya.
 Masalah desain, yaitu bahwa desain yang dibuat harus memperhatikan arsitektur komputer
yang terdiri atas sistem-sistem yang terpisah, selain itu juga memperhatikan data yang
difragmentasi (dipecah-pecah) ke dalam lokasi berlainan. Perubahan dari basis data
terpusat menjadi terdistribusi juga menjadi masalah karena belum ada standar metodologi
dalam konversi DBMS terpusat menjadi DBMS terdistribusi.
 Keamanan data, yaitu bukan hanya satu sistem yang harus diberi proteksi keamanan data,
melainkan juga fragmen-fragmennya yang tersebar di berbagai lokasi, juga jalur
komunikasi antarsistem.
 Kendala mempertahankan integritas karena dalam menjaga integritas sistem melalui
jaringan juga dapat memakan resource yang besar dari jaringan.

SAMPAH MASUK SAMPAH KELUAR


Pengumpulan data adalah proses yang sangat kompleks yang dapat menimbulkan masalah
terkait kualitas data yang dikumpulkan. Oleh karena itu, terlepas dari bagaimana data
dikumpulkan, mereka perlu divalidasi agar pengguna tahu bahwa mereka dapat memercayai
mereka. Ekspresi klasik yang merangkum situasi adalah “sampah masuk, sampah keluar” (GIGO)
dan “sampah masuk, Injil keluar” yang berpotensi berisiko. Dalam kasus terakhir, data berkualitas
buruk dipercaya dan digunakan sebagai dasar untuk perencanaan. Anda telah menemukan
perlindungan data, seperti pemeriksaan integritas, untuk membantu meningkatkan kualitas data
ketika Anda mengisi formulir online. Misalnya, formulir tidak akan menerima alamat e-mail yang
tidak diformat dengan benar.

18
Biaya dan Konsekuensi Data Kotor
Data kotor yaitu, data berkualitas buruk kurang integritas dan tidak dapat dipercaya.
Terlalu sering para manajer dan pekerja informasi benar-benar terkendala oleh data yang tidak
dapat dipercaya karena tidak lengkap, di luar konteks, ketinggalan zaman, tidak akurat, tidak dapat
diakses, atau terlalu banyak sehingga memerlukan beberapa minggu untuk dianalisis.
Dalam situasi seperti itu, pembuat keputusan menghadapi terlalu banyak ketidakpastian untuk
membuat keputusan bisnis yang cerdas. Biaya data berkualitas rendah dapat dinyatakan sebagai
rumus:
Biaya Data Bisnis Biaya Biaya untuk
Kualitas = Hilang + untuk + Memperbaiki
Buruk Mencegah Kesalahan
Kesalahan

Contoh biaya ini termasuk:


 Bisnis yang hilang. Bisnis hilang ketika peluang penjualan terlewatkan, pesanan
dikembalikan karena salah pengiriman barang, atau kesalahan menggagalkan dan mengusir
pelanggan.
 Waktu yang dihabiskan untuk mencegah kesalahan. Jika data tidak dapat dipercaya,
maka karyawan perlu menghabiskan lebih banyak waktu dan upaya untuk memverifikasi
informasi untuk menghindari kesalahan.
 Waktu yang dihabiskan untuk mengoreksi kesalahan. Staf database perlu memproses
koreksi ke database. Misalnya, biaya untuk mengoreksi kesalahan di Urent Corporation
diperkirakan sebagai berikut:
a. Dua anggota staf database menghabiskan 25 persen dari hari kerja mereka memproses
dan memverifikasi koreksi data setiap hari:
2 orang * 25% dari 8 jam / hari 4 jam / hari mengoreksi kesalahan

b. Gaji per jam adalah $ 50 per jam berdasarkan tingkat pembayaran dan tunjangan:
$ 50 / jam * 4 jam / hari $ 200 / hari mengoreksi kesalahan

c. 250 hari kerja per tahun:


$ 200 / hari * 250 hari $ 50.000 / tahun untuk memperbaiki kesalahan
Biaya data berkualitas rendah menyebar ke seluruh perusahaan, mempengaruhi sistem dari
pengiriman dan penerimaan ke layanan akuntansi dan pelanggan. Kesalahan data biasanya muncul

19
dari fungsi atau departemen yang menghasilkan atau membuat data dan bukan di dalam
departemen TI. Ketika semua biaya dipertimbangkan, nilai untuk menemukan dan memperbaiki
penyebab kesalahan data menjadi jelas. Dalam waktu penurunan anggaran, beberapa organisasi
mungkin tidak memiliki sumber daya untuk proyek-proyek semacam itu dan mungkin bahkan
tidak menyadari masalah tersebut. Orang lain mungkin menghabiskan sebagian besar waktu
mereka untuk memperbaiki masalah, sehingga membuat mereka tidak punya waktu untuk
mencegahnya.
Data buruk merugikan bisnis AS ratusan miliar dolar per tahun dan memengaruhi
kemampuan mereka untuk keluar dari iklim ekonomi yang sulit. Nilai yang salah dan ketinggalan
zaman, data yang hilang, dan format data yang tidak konsisten dapat menyebabkan kehilangan
pelanggan, penjualan, dan pendapatan; misalokasi sumber daya; dan strategi penetapan harga yang
salah.
Untuk perusahaan tertentu, sulit untuk menghitung biaya penuh dari kualitas data yang
buruk dan efek jangka panjangnya. Bagian kesulitannya adalah waktu tunda antara kesalahan dan
saat terdeteksi. Kesalahan bisa sangat sulit untuk diperbaiki, terutama ketika sistem meluas ke
seluruh perusahaan. Kekhawatiran lain adalah bahwa dampak kesalahan bisa sulit diprediksi atau
serius. Misalnya, biaya kesalahan karena data yang tidak dapat diandalkan dan salah sendiri
diperkirakan mencapai $ 40 miliar per tahun di sektor ritel (Zynapse, 2010). Dan, satu perusahaan
perawatan kesehatan yang agennya bekerja dengan beberapa ISS, tetapi tidak memperbarui rincian
klien di setiap IS, melihat peningkatan pengeluaran tahunannya sebesar $ 9 juta.

Kepemilikan Data dan Politik Organisasi


Meskipun kebutuhan akan data berkualitas tinggi, politik organisasi dan masalah teknis
membuat itu sulit untuk dicapai. Sumber masalahnya adalah kepemilikan data yaitu, siapa yang
memiliki atau bertanggung jawab atas data tersebut. Masalah kepemilikan data ada ketika tidak
ada kebijakan yang mendefinisikan tanggung jawab dan akuntabilitas untuk mengelola data.
Format data yang tidak konsisten dari berbagai departemen menciptakan serangkaian masalah
tambahan ketika organisasi mencoba menggabungkan aplikasi individu ke dalam sistem
perusahaan yang terintegrasi.
Kecenderungan untuk mendelegasikan tanggung jawab kualitas data kepada tim teknis
yang tidak memiliki kontrol atas kualitas data, dibandingkan dengan pengguna bisnis yang

20
memiliki kontrol seperti itu, adalah perangkap umum lain yang menghalangi pengumpulan data
berkualitas tinggi.
Mereka yang mengelola bisnis atau bagian dari bisnis ditugasi mencoba meningkatkan
kinerja bisnis dan mempertahankan pelanggan. Kompensasi terkait dengan peningkatan
profitabilitas, mendorong pertumbuhan pendapatan, dan meningkatkan kualitas layanan
pelanggan. Indikator kinerja utama ini (KPI) dimonitor secara ketat oleh manajer senior yang ingin
mencari dan menghilangkan cacat yang merugikan kinerja. Aneh bahwa begitu sedikit manajer
yang meluangkan waktu untuk memahami bagaimana kinerja dipengaruhi oleh data berkualitas
rendah. Dua contoh membuat kasus yang kuat untuk investasi dalam data berkualitas tinggi.
Bank ritel: Bagi para eksekutif bank ritel, manajemen risiko adalah masalah nomor satu.
Mengesampingkan risiko berkontribusi pada kehancuran layanan keuangan 2008. Meskipun
strategi manajemen risiko, banyak bank masih mengalami kerugian besar. Sebagian masalah di
banyak bank adalah bahwa IS mereka memungkinkan mereka untuk memantau risiko hanya pada
tingkat produk hipotek, pinjaman, atau kartu kredit. Manajemen risiko tingkat produk ISS
memantau eksposur risiko pelanggan untuk hipotek, atau untuk pinjaman, atau untuk kartu kredit,
dan sebagainya tetapi tidak untuk pelanggan untuk semua produk. Dengan ISS tingkat produk,
bank tidak dapat melihat eksposur risiko penuh dari pelanggan. Keterbatasan risiko tingkat produk
yang silang ini memiliki implikasi serius bagi kinerja bisnis karena pelanggan berisiko buruk tidak
dapat diidentifikasi dengan mudah, dan data pelanggan di berbagai IS dapat berbeda. Sebagai
contoh, pertimbangkan apa yang terjadi ketika setiap manajemen risiko tingkat produk IS feed data
ke ISS pemasaran.
Pemasaran dapat menawarkan insentif pelanggan berisiko-buruk untuk mengambil kartu
kredit atau pinjaman lain yang tidak dapat mereka bayar kembali. Dan karena bank tidak dapat
mengidentifikasi pelanggan terbaiknya, mereka dapat diabaikan dan dibujuk oleh penawaran yang
lebih baik yang ditawarkan oleh pesaing. Skenario ini menggambarkan bagaimana kepemilikan
data dan manajemen kualitas data sangat penting untuk manajemen risiko. Cacat data dan data
yang tidak lengkap dapat dengan cepat memicu pemasaran yang tidak akurat dan memuncaknya
kerugian. Satu bank ritel yang menghadapi masalah ini kehilangan 16 persen dari bisnis
hipoteknya dalam 18 bulan sementara kerugian dalam bisnis kartu kreditnya meningkat (Ferguson,
2012).

21
Contoh ini mewakili konsekuensi dari kurangnya kepemilikan data dan kualitas data.
Memahami dampak dari salah urus data membuat kepemilikan data dan data akurat menjadi
prioritas yang lebih tinggi.
Kepatuhan dengan berbagai peraturan federal dan negara bagian bergantung pada data
solid-rock dan metrik tepercaya yang digunakan untuk pelaporan pengaturan. Kepemilikan data,
kualitas data, dan data yang dikelola secara formal sangat tinggi dalam agenda CFO dan CEO yang
bertanggung jawab secara pribadi jika perusahaan mereka diketahui melanggar peraturan.

SIKLUS HIDUP DATA DAN PRINSIP DATA


Siklus hidup data adalah model yang menggambarkan cara perjalanan data melalui suatu
organisasi, seperti yang ditunjukkan pada Gambar 3.11.

Gambar 3.11 Siklus hidup data


Siklus hidup data dimulai dengan penyimpanan dalam database, untuk dimuat ke dalam
gudang data untuk analisis, kemudian dilaporkan ke pekerja pengetahuan atau digunakan dalam
aplikasi bisnis. Manajemen rantai suplai (SCM), manajemen hubungan pelanggan (CRM), dan e-
commerce adalah aplikasi perusahaan yang memerlukan data terbaru yang siap diakses berfungsi
dengan baik.
Tiga prinsip data umum terkait dengan perspektif siklus hidup data dan membantu memandu
keputusan investasi TI:
1. Prinsip nilai data yang semakin berkurang. Nilai data berkurang seiring dengan
bertambahnya usia mereka. Ini adalah prinsip yang sederhana namun kuat. Sebagian besar
organisasi tidak dapat beroperasi pada kinerja puncak dengan blind spot (kurangnya
ketersediaan data) 30 hari atau lebih lama. Lembaga-lembaga jasa keuangan global
bergantung pada data mendekati waktu nyata untuk kinerja puncak.

22
2. Prinsip penggunaan data 90/90. Menurut prinsip penggunaan data 90/90, sebagian besar
data yang disimpan, setinggi 90 persen, jarang diakses setelah 90 hari (kecuali untuk
keperluan audit). Artinya, sekitar 90 persen data kehilangan sebagian besar nilainya setelah
3 bulan.
3. Prinsip data dalam konteks. Kemampuan untuk menangkap, memproses, memformat,
dan mendistribusikan data dalam waktu dekat atau lebih cepat membutuhkan investasi
besar dalam arsitektur data (Bab 2) dan infrastruktur untuk menghubungkan sistem POS
remote ke penyimpanan data, sistem analisis data, dan aplikasi pelaporan. Investasi dapat
dibenarkan pada prinsip bahwa data harus diintegrasikan, diproses, dianalisis, dan diformat
menjadi "informasi yang dapat ditindaklanjuti."

MASTER DATA DAN MANAJEMEN DATA MASTER


Ketika data menjadi lebih kompleks dan volume mereka meledak, kinerja database
menurun. Salah satu solusinya adalah penggunaan data master dan manajemen data master
(MDM), seperti yang diperkenalkan di Bab 2. Proses MDM mengintegrasikan data dari berbagai
sumber atau aplikasi perusahaan untuk membuat tampilan yang lebih lengkap (terpadu) dari
pelanggan, produk, atau entitas lain .

Data transaksional
Data mendukung aplikasi.
transaksional

Data master menggambarkan entitas


bisnis perusahaan tempat transaksi
Data master dilakukan dan dimensi (Pelanggan,
Produk, Pemasok, Akun, dan Situs), di
mana analisis dilakukan.

Data
Perusahaan Data
Data analitis mendukung
Analitik
pengambilan. keputusan dan
perencanaan

Gambar 3.12 Sebuah perusahaan memiliki data transaksional, master, dan analitis.
Gambar 3.12 menunjukkan bagaimana data master berfungsi sebagai lapisan antara data
transaksional dalam database dan data analitis dalam sebuah gudang data. Meskipun vendor dapat

23
mengklaim bahwa solusi MDM mereka menciptakan "satu versi kebenaran," klaim ini mungkin
tidak benar. Pada kenyataannya, MDM tidak dapat membuat satu versi tunggal dari data karena
membangun tampilan yang sepenuhnya terpadu dari semua data master sama sekali tidak mungkin.

File Referensi Guru dan Entitas Data


Secara realistis, MDM menggabungkan data dari berbagai sumber data ke dalam file
referensi master, yang kemudian memasukkan data kembali ke aplikasi, sehingga menciptakan
data yang akurat dan konsisten di seluruh perusahaan. Dalam IT at Work 3.1, peserta dalam rantai
pasokan layanan kesehatan pada dasarnya mengembangkan file referensi induk dari entitas data
kuncinya. Entitas data adalah sesuatu yang nyata atau abstrak tentang perusahaan mana yang
ingin mengumpulkan dan menyimpan data. Entitas data master adalah entitas utama perusahaan,
seperti pelanggan, produk, pemasok, karyawan, dan aset.
Setiap departemen memiliki kebutuhan data master yang berbeda. Pemasaran, misalnya,
berkaitan dengan penetapan harga produk, merek, dan kemasan produk, sedangkan produksi
berkaitan dengan biaya dan jadwal produk. File referensi master pelanggan dapat memberikan data
kesemua sistem perusahaan yang memiliki komponen hubungan pelanggan, sehingga memberikan
gambaran pelanggan yang lebih terpadu. Demikian pula, file referensi master produk dapat
memberi umpan data ke semua sistem produksi dalam perusahaan.
MDM mencakup alat untuk membersihkan dan mengaudit elemen data master serta alat
untuk mengintegrasikan dan menyinkronkan data agar lebih mudah diakses. MDM menawarkan
solusi bagi manajer yang frustasi dengan seberapa terfragmentasi dan tersebarnya sumber data
mereka.

3.2 Data Warehouse dan Big Data Analytics


Data warehouse juga dikenal sebagai gudang data perusahaan ( EDW ), adalah sistem
yang digunakan untuk pelaporan dan analisis data, dan dianggap sebagai komponen inti
dari intelijen bisnis. Adapun Big data analytics mengacu pada proses mengumpulkan,
mengorganisasikan dan menganalisa sekumpulan besar data (big data) untuk mendapatkan pola-
pola dan informasi yang berguna. Big data analytics tidak hanya membantu untuk memahami
informasi yang terkandung di dalam data tapi juga membantu untuk mengidentifikasi data yang
paling penting untuk keputusan bisnis saat ini dan masa datang.

24
Pangsa pasar adalah persentase dari total penjualan di pasar yang ditangkap oleh merek,
produk, atau perusahaan. Manajer pemasaran senior peritel besar AS mengetahui bahwa
perusahaannya terus kehilangan pangsa pasar ke pesaing di banyak segmen menguntungkan
mereka. Kerugian berlanjut bahkan setelah kampanye penjualan yang menggabungkan promosi
online dengan peningkatan penjualan (Brown, Chui, & Manyika, 2011). Untuk memahami
penyebabnya, tim manajer senior mempelajari praktik pesaing mereka. Mereka menemukan
bahwa masalahnya bukan hanya karena taktik pemasaran dasar, tetapi berjalan lebih dalam.
Pesaing:
 Telah berinvestasi besar dalam TI untuk mengumpulkan, mengintegrasikan, dan
menganalisis data dari setiap toko dan unit penjualan.
 Telah menautkan data ini ke basis data pemasok, sehingga memungkinkan untuk
menyesuaikan harga secara waktu nyata, menyusun ulang item penjualan panas
secara otomatis, dan memindahkan barang dari toko ke toko dengan mudah.
 Terus-menerus menguji, mengintegrasikan, dan melaporkan informasi yang
tersedia secara instan di seluruh organisasi dari lantai toko ke kantor CFO.
Tim manajemen senior menyadari bahwa pesaing mereka mencuri pelanggan mereka
karena analitik data besar memungkinkan mereka untuk menunjukkan peningkatan peluang di
seluruh rantai pasokan mulai dari pembelian hingga pengelolaan ketersediaan di toko. Secara
khusus, kompetitor mampu memprediksi bagaimana pelanggan akan berperilaku dan
menggunakan pengetahuan itu untuk dipersiapkan untuk merespon dengan cepat. Kasus ini adalah
contoh dari apa yang telah dipelajari para peneliti. Menurut McKinsey Global Institute (MGI),
analitik big data telah membantu perusahaan mengungguli pesaing mereka.
MGI memperkirakan bahwa pengecer menggunakan analitik data besar meningkatkan
marjin operasi mereka lebih dari 60 persen. Marjin operasi adalah ukuran persentase dari sisa
pendapatan perusahaan setelah membayar biaya variabelnya, seperti upah dan bahan mentah.
Peningkatan marjin berarti perusahaan menghasilkan lebih banyak per dolar penjualan. Semakin
tinggi margin operasi, semakin baik. Memimpin pengecer, asuransi, dan layanan keuangan
menggunakan data besar untuk merebut pangsa pasar dari pesaing lokal (Breuer, Forina, &
Moulton, 2013). Sebuah studi IBM menunjukkan bahwa perusahaan dengan analisis dan
pengoptimalan bisnis yang canggih dapat mengalami pertumbuhan laba 20 kali lebih banyak dan
pengembalian modal investasi 30% lebih tinggi (ibm.com, 2011).

25
Bab ini akan mengajarkan tentang nilai, tantangan, dan teknologi yang terlibat dalam
menempatkan data dan analitik untuk digunakan untuk mendukung keputusan dan tindakan.
Empat V analytics dari data variasi, volume, kecepatan, dan kebenaran dijelaskan dalam Tabel 3.2.

TABEL 3.2 Empat V dari Data Analytics


1. Ragam: Lingkungan analitik telah berkembang dari menarik data dari
sistem perusahaan untuk memasukkan data besar dan sumber tidak
terstruktur.
2. Volume: Volume besar data terstruktur dan tidak terstruktur dianalisis.
3.Kecepatan: Kecepatan akses ke laporan yang diambil dari data
menentukan perbedaan antara analitik yang efektif dan tidak efektif.
4. Kebenaran: Memvalidasi data dan mengekstraksi wawasan yang dapat
dipercaya oleh manajer dan pekerja adalah faktor kunci dari analisis yang
sukses. Kepercayaan pada analitik menjadi semakin sulit dengan ledakan
sumber data.

Data besar dapat memiliki dampak dramatis pada keberhasilan perusahaan apa pun, atau
mereka dapat menjadi biaya besar yang berkontribusi rendah. Namun, kesuksesan tidak diraih
dengan teknologi saja. Banyak perusahaan mengumpulkan dan mengambil data dalam jumlah
besar, tetapi hanya menghabiskan sedikit upaya untuk memastikan kebenaran dan nilai data yang
diambil pada tahap transaksional atau titik asal. Penekanan dalam arah ini tidak hanya akan
meningkatkan kepercayaan pada kumpulan data, tetapi juga secara signifikan mengurangi upaya
analitik dan meningkatkan kualitas pengambilan keputusan. Keberhasilan juga bergantung pada
memastikan bahwa Anda menghindari asumsi yang tidak valid, yang dapat dilakukan dengan
menguji asumsi selama analisis.

KEAHLIAN MANUSIA DAN PENGADILAN DIPERLUKAN


CAREER INSIGHT 3.1 JOBS
Mengelola dan Menafsirkan Data Besar Berada di Permintaan Tertinggi
Pasar kerja TI sedang meningkat, dan pekerjaan teratas  Tendu Yogurtcu, wakil presiden bidang
termasuk apa pun dalam data besar, seluler, cloud, atau teknik di Syncsort, menjelaskan:

26
keamanan TI. TechRepublic mengadakan pertemuan “Dengan meningkatnya popularitas
para eksekutif TI dan perekrut teknologi untuk Hadoop, posisi diarahkan untuk mengisi
mempelajari tren perekrutan terbaru. Berikut tiga peran-peran ini, dengan banyak minat
ramalan (Hammond, 2014): ditempatkan pada data besar dan
 Pete Kazanjy, salah satu pendiri TalentBin, penambangan data dan analisis. Sebagian
menyatakan di sana “akan ada peningkatan besar karyawan baru adalah lulusan baru,
permintaan akan bakat teknis, tetapi lebih luas di karena mereka mewujudkan banyak
seluruh ekonomi, dan tidak hanya siled di sektor kreativitas dan pemikiran ke depan,
teknologi sendiri. Teknologi berhenti menjadi sektor kedua kualitas yang dibutuhkan dalam
tersendiri, dan malah menjadi lebih penting di setiap industri data besar. ”
industri. ”
 Robert Noble, direktur perangkat lunak teknik di
WhitePages, memberikan ikhtisar tentang masalah
perekrutan: “Permintaan untuk bakat teknologi dan
perangkat lunak meledak. Banyak perusahaan yang
agresif dan kreatif untuk bersaing untuk kandidat di
bidang ini. Misalnya, selain kompensasi dan
pekerjaan teknis dari peran pekerjaan, perusahaan
menggunakan budaya sebagai pembeda utama.
Mereka tidak hanya berbicara tentang perusahaan,
mereka juga berbicara tentang keistimewaan di luar
pekerjaan, dan manfaat, seperti acara tim yang
keren, menyediakan potongan rambut gratis, pijat,
makanan dan banyak lagi. ”

Keahlian dan penilaian manusia diperlukan untuk menginterpretasi output dari analitik
(lihat Gambar 3.1). Data tidak berharga jika Anda tidak dapat menganalisis, menafsirkan,
memahami, dan menerapkan hasilnya dalam konteks. Ini menghadirkan beberapa tantangan:
 Data perlu disiapkan untuk analisis. Sebagai contoh, data yang tidak lengkap atau digandakan
perlu diperbaiki.
 Data kotor menurunkan nilai analitik. "Kebersihan" data sangat penting untuk proyek
penambangan dan analisis data. Analis mengeluhkan bahwa analitik data seperti pekerjaan
kebersihan karena mereka menghabiskan begitu banyak waktu pada proses manual, kesalahan-

27
rawan untuk membersihkan data. Volume dan ragam data yang besar berarti lebih banyak data
yang kotor dan lebih sulit ditangani.
 Data harus dimasukkan ke dalam konteks yang bermakna. Jika analisis atau dataset yang salah
digunakan, hasilnya akan menjadi tidak masuk akal, seperti pada contoh pemenang Super
Bowl dan kinerja pasar saham. Dinyatakan secara terbalik, manajer perlu konteks untuk
memahami bagaimana menginterpretasi data tradisional dan besar.

ENTERPRISE DATA WAREHOUSE DAN DATA MART


Data gudang menyimpan data dari berbagai sistem sumber dan basis data di seluruh
perusahaan untuk menjalankan kueri analitis terhadap kumpulan data besar yang dikumpulkan
dalam jangka waktu lama. Gudang adalah sumber utama data yang dibersihkan untuk analisis,
pelaporan, dan BI. Seringkali data diringkas dengan cara yang memungkinkan respons cepat
terhadap kueri. Misalnya, hasil query dapat mengungkapkan perubahan dalam perilaku pelanggan
dan mendorong keputusan untuk mengembangkan kembali strategi periklanan.
Gudang data yang mengumpulkan data dari berbagai sumber dan basis data di seluruh
perusahaan disebut gudang data perusahaan (EDW). Tech Note 3.2 merangkum karakteristik
utama dari dua jenis penyimpanan data.
TECH CATATAN 3.2 Ringkasan Perbedaan Antara Database dan Gudang Data
Database adalah:
• Didesain dan dioptimalkan untuk memastikan bahwa setiap transaksi dicatat dan disimpan
dengan segera.
• Volatil karena data terus diperbarui, ditambahkan, atau diedit.
• Sistem OLTP.

Gudang data adalah:


• Dirancang dan dioptimalkan untuk analisis dan respons cepat terhadap pertanyaan.
• Nonvolatile. Stabilitas ini penting untuk dapat menganalisis data dan membuat perbandingan.
Ketika data disimpan, mereka mungkin tidak pernah diubah atau dihapus untuk melakukan
analisis tren atau membuat perbandingan dengan data yang lebih baru.
• Sistem OLAP.

28
• Subjek yang berorientasi, yang berarti bahwa data yang diambil diatur untuk memiliki data
serupa yang dihubungkan bersama.

Tingginya biaya gudang data dapat membuat mereka terlalu mahal untuk diterapkan
perusahaan. Mart data adalah versi berbiaya rendah dan berskala kecil yang dapat
diimplementasikan dalam waktu yang jauh lebih singkat, misalnya, dalam waktu kurang dari 90
hari. Data mart melayani departemen atau fungsi tertentu, seperti keuangan, pemasaran, atau
operasi. Karena mereka menyimpan data dalam jumlah yang lebih kecil, mereka lebih cepat, lebih
mudah digunakan, dan dinavigasi.

Prosedur untuk Menyiapkan Data EDW untuk Analytics


Pertimbangkan database bank. Setiap setoran, penarikan, pembayaran pinjaman, atau
penambahan atau perubahan data transaksi lainnya. Volatilitas yang disebabkan oleh pemrosesan
transaksi konstan membuat analisis data menjadi sulit dan tuntutan untuk memproses jutaan
transaksi per detik menghabiskan kekuatan pemrosesan database. Sebaliknya, data di gudang
relatif stabil, sesuai kebutuhan untuk analisis. Oleh karena itu, pilih data yang dipindahkan dari
basis data ke gudang. Secara khusus, data adalah:
1. Diekstrak dari database yang ditunjuk.
2. Berubah dengan format standar, membersihkan data, mengintegrasikannya.
3. Dimuat ke dalam gudang data.
Ketiga prosedur ini akan mengekstrak, mengubah, dan memuat disebut ETL inisial yang
dijelaskan pada (Gambar 3.14). Di gudang, data bersifat hanya-baca; artinya, mereka tidak berubah
sampai ETL berikutnya.

Gambar 3.14 Data masukkan database dari sistem transaksi. Data yang menarik diekstraksi dari
database, diubah untuk membersihkan dan menstandardisasi mereka, dan kemudian dimuat ke
dalam gudang data. Ketiga proses ini disebut ETL.

29
Tiga teknologi yang terlibat dalam mempersiapkan data mentah untuk analitik termasuk
ETL, mengubah data capture (CDC), dan deduplication data ("deduping data"). Proses CDC
menangkap perubahan yang dibuat pada sumber data dan kemudian menerapkan perubahan
tersebut di seluruh penyimpanan data perusahaan untuk menjaga data tetap tersinkronisasi. CDC
meminimalkan sumber daya yang diperlukan untuk proses ETL dengan hanya menangani
perubahan data. Proses penghapusan menghapus duplikat dan menstandardisasi format data, yang
membantu meminimalkan penyimpanan dan sinkronisasi data.

MEMBANGUN DATA WAREHOUSE

Gambar 3.15 Database, gudang data dan mart, dan arsitektur BI.
Gambar 3.15 diagram proses membangun dan menggunakan data warehouse. Data
organisasi disimpan dalam sistem operasional (sisi kiri gambar). Tidak semua data ditransfer ke
gudang data. Seringkali, hanya data ringkasan yang ditransfer. Gudang mengatur data dalam
berbagai cara berdasarkan subjek, area fungsional, vendor, dan produk. Seperti yang ditunjukkan,
arsitektur data warehouse mendefinisikan aliran data yang dimulai ketika data ditangkap oleh
sistem transaksi; sumber data disimpan dalam database transaksional (operasional); Proses ETL
memindahkan data dari basis data ke gudang data atau mart data, tempat data tersedia untuk akses,
laporan, dan analisis.

DATA WAREHOUSE AKTIF MENDUKUNG REAL TIME


Teknologi data warehouse awal terutama didukung aplikasi strategis yang tidak
memerlukan waktu respon instan, interaksi pelanggan langsung, atau integrasi dengan sistem
operasional. ETL mungkin telah dilakukan sekali seminggu atau sebulan sekali. Namun,
permintaan informasi untuk mendukung interaksi dan operasi pelanggan real time mengarah pada

30
pergudangan dan analisis data real-time dikenal sebagai gudang data aktif (ADW). Peningkatan
besar dalam daya komputasi, kecepatan pemrosesan, dan memori membuat ADW menjadi
mungkin. ADW tidak dirancang untuk mendukung eksekutif pengambilan keputusan strategis,
tetapi lebih untuk mendukung operasi. Misalnya, perusahaan pelayaran seperti DHL menggunakan
armada truk besar untuk memindahkan jutaan paket. Setiap hari dan sepanjang hari, manajer
operasional membuat ribuan keputusan yang mempengaruhi garis bawah, seperti: "Apakah kita
memerlukan empat truk untuk lari ini?" "Dengan dua driver yang tertunda akibat cuaca buruk,
apakah kita perlu membawa bantuan tambahan? "Data warehous tradisional tidak cocok untuk
dukungan operasional langsung, tetapi pergudangan data aktif adalah. Misalnya, perusahaan
dengan ADW dapat:
 Berinteraksi dengan pelanggan untuk menyediakan layanan pelanggan yang unggul.
 Menanggapi acara bisnis dalam waktu dekat.
 Bagikan data status terbaru di antara pedagang, vendor, pelanggan, dan rekan.
Berikut beberapa contoh bagaimana dua perusahaan menggunakan ADW:
Modal Satu. Capital One menggunakan ADW untuk melacak "nilai profitabilitas" setiap
pelanggan untuk menentukan tingkat layanan pelanggan untuk menyediakan orang itu. Layanan
pribadi high-end hanya diberikan kepada mereka yang memiliki nilai tinggi. Misalnya, ketika
pelanggan memanggil Modal Satu, dia diminta memasukkan nomor kartu kredit, yang dikaitkan
dengan nilai profitabilitas. Pelanggan berpenghasilan rendah hanya mendapatkan unit tanggapan
suara; pelanggan dengan laba tinggi terhubung ke perwakilan layanan pelanggan langsung (CSR)
karena perusahaan ingin meminimalkan risiko kehilangan pelanggan tersebut.
Travelocity. Jika Anda menggunakan Travelocity, ADW akan menemukan penawaran
perjalanan terbaik terutama untuk Anda. Sasarannya adalah menggunakan “data hari ini hari ini”
dan bukan “data kemarin hari ini.” ADW agen perjalanan online menganalisis riwayat penelusuran
dan tujuan yang Anda minati; kemudian memprediksi penawaran perjalanan yang kemungkinan
besar akan Anda beli. Penawaran keduanya relevan dan tepat waktu untuk meningkatkan
pengalaman Anda, yang membantu menutup penjualan di pasar yang sangat kompetitif. Misalnya,
ketika pelanggan menelusuri penerbangan dan hotel di Las Vegas, Travelocity mengakui minatnya
pelanggan ingin pergi ke Vegas. ADW mencari penerbangan dengan harga terbaik dari semua
operator, membangun beberapa penawaran paket, dan menyajikannya secara real time kepada
pelanggan. Ketika pelanggan melihat penawaran yang dipersonalisasi yang sudah mereka minati,

31
ADW membantu menghasilkan pengalaman pelanggan yang lebih baik. Pengalaman berbasis data
waktu nyata meningkatkan tingkat konversi dan penjualan.
Konten gudang data dapat dikirimkan ke pengambil keputusan di seluruh perusahaan
melalui cloud atau intranet milik perusahaan. Pengguna dapat melihat, meminta, dan menganalisis
data dan menghasilkan laporan menggunakan browser Web. Ini adalah metode pengiriman data
yang sangat ekonomis dan efektif.

Data Warehousing Mendukung Aksi dan Keputusan


Banyak organisasi membangun gudang data karena mereka frustrasi dengan data yang
tidak konsisten yang tidak dapat mendukung keputusan atau tindakan. Dilihat dari perspektif ini,
gudang data adalah investasi infrastruktur yang dibuat perusahaan untuk mendukung operasi yang
sedang berlangsung dan masa depan, seperti:
 Pemasaran dan penjualan. Selalu memberi tahu orang-orang tentang status produk,
efektivitas program pemasaran, dan profitabilitas lini produk; dan memungkinkan mereka
mengambil tindakan cerdas untuk memaksimalkan profitabilitas per pelanggan.
 Penetapan harga dan kontrak. Menghitung biaya secara akurat untuk mengoptimalkan
penetapan harga suatu kontrak. Tanpa data biaya yang akurat, harga mungkin di bawah
atau terlalu dekat dengan biaya; atau harga mungkin tidak kompetitif karena terlalu tinggi.
 Peramalan. Perkirakan permintaan pelanggan untuk produk dan layanan.
 Penjualan. Menghitung profitabilitas dan produktivitas penjualan untuk semua wilayah
dan wilayah; menganalisis hasil berdasarkan geografi, produk, grup penjualan, atau
individu.
 Keuangan. Menyediakan data waktu nyata untuk persyaratan kredit yang optimal, analisis
portofolio, dan tindakan yang mengurangi risiko atau biaya utang yang buruk.
Tabel 3.3 Merangkum beberapa aplikasi penyimpanan data yang berhasil.
TABEL 3.3 Aplikasi Gudang Data berdasarkan Industri
Aplikasi Industri
Perusahaan penerbangan Penugasan kru, penempatan pesawat udara,
analisis tivity rute, promosi kesetiaan
pelanggan
Perbankan dan keuangan Layanan pelanggan, analisis tren, promosi
layanan dan produk, pengurangan biaya IS

32
Kartu kredit Layanan pelanggan, layanan informasi baru
dengan biaya, deteksi penipuan
Kontrak pertahanan Transfer teknologi, produksi aplikasi militer
Bisnis elektronik Gudang data dengan kemampuan
personalisasi, preferensi pemasaran / belanja
yang memungkinkan penjualan lebih tinggi
dan penjualan silang
Pemerintah Melaporkan tentang area kejahatan, keamanan
dalam negeri
Kesehatan Pengurangan biaya operasional
Investasi dan asuransi Manajemen risiko, analisis pergerakan pasar,
analisis kecenderungan pelanggan, manajemen
portofolio
Rantai ritel Analisis tren, analisis pola pembelian,
kebijakan harga, kontrol inventaris, promosi
penjualan, keputusan saluran distribusi yang
optimal

ANALISIS BIG DATA DAN DISCOVERY DATA


Analisis big data membantu pengguna menemukan wawasan. Wawasan ini
dikombinasikan dengan keahlian manusia memungkinkan orang untuk mengenali hubungan yang
bermakna lebih cepat atau mudah; dan lebih jauh lagi, menyadari implikasi strategis dari situasi
ini. Sedangkan Discovery data merupakan Penemuan data, dalam konteks TI, adalah proses
mengekstraksi pola yang dapat ditindaklanjuti dari data. Ekstraksi umumnya dilakukan oleh
manusia atau, dalam kasus-kasus tertentu, oleh sistem kecerdasan buatan. Data yang disajikan
biasanya dalam format visual dan mungkin terlihat seperti dasbor, tergantung bagaimana
tampilannya dalam aplikasi. Bayangkan mencoba memahami data yang cepat dan luas yang
dihasilkan oleh kampanye media sosial di Facebook atau oleh sensor yang melekat pada mesin
atau benda. Sensor murah memungkinkan untuk memantau semua jenis benda fisik sementara
analisis memungkinkan untuk memahami data tersebut untuk mengambil tindakan secara waktu
nyata. Misalnya, data sensor dapat dianalisis secara waktu nyata:
 Untuk memantau dan mengatur suhu dan kondisi iklim makanan yang mudah rusak saat
diangkut dari peternakan ke supermarket.
 Mengendus tanda-tanda pembusukan buah-buahan dan sayuran mentah dan mendeteksi
risiko kontaminasi E.coli.
 Untuk melacak kondisi mesin operasi dan memprediksi kemungkinan kegagalan.

33
 Untuk melacak keausan mesin dan menentukan kapan pemeliharaan preventif diperlukan.

Gambar 3.16 Mesin Menghasilkan data dari objek fisik menjadi bagian yang lebih besar dari data
dan analitik besar.

Data sensor yang dihasilkan mesin menjadi bagian yang lebih besar dari data besar
(Gambar 3.16), menurut laporan penelitian oleh IDC (Lohr, 2012b). Diperkirakan bahwa data ini
akan meningkat menjadi 42 persen dari semua data pada tahun 2020, mewakili peningkatan yang
signifikan dari tingkat 11 persen tahun 2005.
Nilai menganalisis data mesin diakui oleh General Electric (GE) Company, perusahaan
industri terbesar di Amerika Serikat. Sejak 2011 GE telah menempatkan sensor pada segala
sesuatu dari turbin gas ke tempat tidur rumah sakit. Misi GE adalah merancang perangkat lunak
untuk mengumpulkan data, dan algoritme untuk menganalisisnya guna mengoptimalkan
penghematan biaya dan peningkatan produktivitas. Di seluruh industri yang diliputinya, GE
memperkirakan peluang efisiensi akan memangkas biaya sebanyak $ 150 miliar (Lohr, 2012a).
Upaya reformasi kesehatan federal telah mendorong organisasi layanan kesehatan ke arah
data dan analisis besar. Organisasi-organisasi ini berencana untuk menggunakan analitik data besar
untuk mendukung manajemen siklus pendapatan, pemanfaatan sumber daya, pencegahan
penipuan, manajemen kesehatan, dan peningkatan kualitas.

Hadoop dan MapReduce


Volume data yang besar melebihi kapasitas pemrosesan infrastruktur database
konvensional. Platform pemrosesan yang banyak digunakan adalah Apache Hadoop (hadoop.
Apache.org/). Itu tidak menempatkan kondisi pada struktur data yang dapat diproses. Hadoop

34
mendistribusikan masalah komputasi disejumlah server. Hadoop mengimplementasikan
MapReduce dalam dua tahap:
1. Tahap peta: MapReduce memecah kumpulan data besar ke dalam subset yang lebih kecil;
kemudian mendistribusikan himpunan bagian di antara beberapa server di mana mereka
sebagian diproses.
2. Kurangi tahap: Hasil parsial dari tahap peta kemudian digabungkan dan dibuat tersedia
untuk alat analitik.
Untuk menyimpan data, Hadoop memiliki sistem file terdistribusi sendiri, HaDoop File Systems
(HDFS), yang berfungsi dalam tiga tahap:
 Memuatkan data ke HDFS.
 Melakukan operasi MapReduce.
 Mengambil hasil dari HDFS.
Gambar 3.17 diagram bagaimana Facebook menggunakan teknologi database dan Hadoop.
IT at Work 3.3 menjelaskan bagaimana First Wind telah menerapkan analitik data besar untuk
meningkatkan operasi ladang anginnya dan untuk mendukung keberlanjutan planet ini dengan
mengurangi emisi karbon yang merusak lingkungan.

Database MySQL Data dimuat ke Hadoop tempat pemrosesan terjadi,


menangkap dan menyimpan seperti mengidentifikasi rekomendasi untuk Anda
data Facebook. berdasarkan minat teman-teman Anda.

Hasil ditransfer kembali ke MySQL Anggota melihat halaman


untuk digunakan di halaman yang Facebook yang disesuaikan.
dimuat untuk anggota.

Gambar 3.17 Database MySQL Facebook dan teknologi Hadoop menyediakan halaman yang
disesuaikan untuk anggotanya.

35
3.3 Penambangan Data dan Teks
MENCIPTAKAN NILAI BISNIS
Saat Anda membaca, DBMSs mendukung kueri untuk mengekstrak data atau mendapatkan
jawaban dari basis data besar. Tetapi untuk melakukan kueri, Anda harus mengetahui terlebih
dahulu apa yang harus ditanyakan atau apa yang ingin Anda jawab. Dalam penambangan data dan
penambangan teks, itu kebalikannya. Data dan penambangan teks digunakan untuk menemukan
pengetahuan yang Anda tidak tahu ada dalam database.
Analisis bisnis menggambarkan seluruh fungsi penerapan teknologi, algoritme, keahlian
manusia, dan penilaian. Penambangan data dan teks adalah teknik analitik khusus.

Perusahaan berinvestasi dalam alat penambangan data untuk menambah nilai bisnis. Nilai bisnis
jatuh ke dalam tiga kategori, seperti yang ditunjukkan pada Gambar 3.18.

Membuat keputusan yang lebih tepat pada saat mereka


perlu dibuat

Menemukan wawasan, pola, atau hubungan yang


tidak diketahui

Mengotomasi dan menyederhanakan atau


mendigitalkan proses bisnis

Gambar 3.18 Nilai bisnis jatuh ke dalam tiga kotak.


Berikut adalah kasus singkat yang menggambarkan jenis nilai bisnis yang dibuat oleh data
dan penambangan teks, sebagai berikut :
1. Menggunakan analisis pola, Argo Corporation, produsen peralatan pertanian yang
berbasis di Georgia, mampu mengoptimalkan opsi konfigurasi produk untuk mesin
pertanian dan permintaan pelanggan waktu nyata untuk menentukan konfigurasi dasar
yang optimal untuk mesin-mesinnya. Akibatnya, Argo mengurangi variasi produk hingga
61 persen dan memangkas persediaan hingga 81 persen sementara tetap mempertahankan
tingkat layanannya.
2. Mega-retailer Walmart menginginkan pembelanja online-nya untuk menemukan apa yang
mereka cari lebih cepat. Walmart menganalisis data clickstream dari 45 juta pembelanja

36
online bulanannya; kemudian menggabungkan data tersebut dengan skor popularitas yang
berhubungan dengan kategori dan produk. Skor popularitas telah dihasilkan oleh teks
menambang aliran media sosial pengecer. Pelajaran yang diambil dari analisis
diintegrasikan ke dalam mesin pencari Polaris yang digunakan oleh pelanggan di situs web
perusahaan. Polaris telah menghasilkan peningkatan 10 hingga 15 persen dalam
pembelanjaan online yang menyelesaikan pembelian, yang setara dengan $ 1 miliar dalam
penjualan online inkremental.
3. Operasi bakery McDonald mengganti peralatan manual dengan analisis foto berkecepatan
tinggi untuk memeriksa ribuan roti per menit untuk warna, ukuran, dan distribusi biji wijen.
Secara otomatis, oven dan proses pemanggangan menyesuaikan secara instan untuk
membuat roti seragam dan mengurangi ribuan pon limbah setiap tahun. Perusahaan produk
makanan lain juga menggunakan analisis foto untuk menyortir setiap jenis kentang goreng
yang diproduksi untuk mengoptimalkan kualitas.
4. Asuransi Infinity menemukan wawasan baru yang diterapkan untuk meningkatkan kinerja
operasi penipuannya. Teks perusahaan asuransi menambang bertahun-tahun laporan yang
disesuaikan untuk mencari pendorong utama dari klaim curang. Akibatnya, perusahaan
mengurangi penipuan hingga 75 persen, dan menghapus pemasaran ke pelanggan dengan
kemungkinan klaim curang yang tinggi.

DATA DAN TEXT MINING


Perangkat lunak penambangan data memungkinkan pengguna untuk menganalisis data
dari berbagai dimensi atau sudut, mengkategorikannya, dan menemukan korelasi atau pola di
antara bidang dalam gudang data. Hingga 75 persen data organisasi adalah dokumen pengolah kata
yang tidak terstruktur, media sosial, pesan teks, audio, video, gambar dan diagram, faks dan memo,
call center atau catatan klaim, dan sebagainya. Penambangan teks adalah kategori luas yang
melibatkan menafsirkan kata dan konsep dalam konteks. Setiap pelanggan menjadi pendukung
atau musuh merek dengan bebas mengekspresikan pendapat dan sikap yang menjangkau jutaan
pelanggan saat ini atau calon pelanggan lainnya di media sosial. Tambang teks membantu
perusahaan memanfaatkan ledakan opini pelanggan yang diungkapkan secara online. Komentar
sosial dan media sosial sedang ditambang untuk analisis sentimen atau untuk memahami maksud
konsumen. Perusahaan yang inovatif tahu bahwa mereka dapat lebih berhasil dalam memenuhi

37
kebutuhan pelanggan mereka, jika mereka hanya memahami mereka dengan lebih baik. Alat dan
teknik untuk menganalisis teks, dokumen, dan konten tidak terstruktur lainnya tersedia dari
beberapa vendor.

Menyisir Pertambangan Data dan Teks


Menggabungkan data dan penambangan teks dapat menciptakan nilai yang lebih besar.
Palomäki dan Oksanen (2012) menunjukkan bahwa teks penambangan atau data nonstruktural
memungkinkan organisasi untuk meramalkan masa depan, bukan hanya melaporkan masa lalu.
Mereka juga mencatat bahwa metode peramalan menggunakan data terstruktur yang ada dan teks
tidak terstruktur dari sumber internal dan eksternal memberikan pandangan terbaik tentang apa
yang ada di depan.
Prosedur Analisis Teks
Dengan analisis teks, informasi diekstraksi dari sejumlah besar berbagai jenis informasi
tekstual. Langkah-langkah dasar yang terlibat dalam analisis teks meliputi:
1. Eksplorasi. Pertama, dokumen dieksplorasi. Ini mungkin terjadi dalam bentuk jumlah kata
sederhana dalam koleksi dokumen, atau dengan secara manual membuat bidang topik
untuk mengkategorikan dokumen setelah membaca contohnya. Misalnya, apa jenis
masalah utama (kegagalan mesin atau rem) yang telah diidentifikasi dalam klaim garansi
mobil baru-baru ini? Tantangan dari upaya eksplorasi adalah salah eja atau disingkat kata,
akronim, atau slang.
2. Preprocessing. Sebelum analisis atau kategorisasi konten secara otomatis, teks mungkin
perlu dipreprocess untuk menstandardkannya semaksimal mungkin. Seperti dalam analisis
tradisional, hingga 80 persen waktu preprocessing dapat dihabiskan untuk menyiapkan dan
menstandardisasi data. Kata-kata yang salah eja, singkatan, dan bahasa gaul mungkin perlu
diubah menjadi istilah yang konsisten. Sebagai contoh, BTW akan distandardisasi menjadi
“by the way” dan “left voice message” dapat ditandai sebagai “lvm.”
3. Pengkategorian dan Pemodelan. Konten kemudian siap dikategorikan. Mengkategorikan
pesan atau dokumen dari informasi yang terdapat di dalamnya dapat dicapai dengan
menggunakan model statistik dan aturan bisnis. Seperti pengembangan model tradisional,
dokumen sampel diperiksa untuk melatih model. Dokumen tambahan kemudian diproses
untuk memvalidasi keakuratan dan ketepatan model, dan akhirnya dokumen baru

38
dievaluasi menggunakan model akhir (skor). Model kemudian dapat dimasukkan ke dalam
produksi untuk pemrosesan dokumen baru secara otomatis ketika mereka tiba.
Analisis teks dapat membantu mengidentifikasi rasio pos positif / negatif yang terkait dengan
promosi. Ini dapat menjadi alat validasi yang kuat untuk melengkapi riset pelanggan dan
manajemen umpan balik pelanggan primer dan sekunder lainnya. Perusahaan yang meningkatkan
kemampuan mereka untuk menavigasi dan teks menambang papan dan blog yang relevan dengan
industri mereka cenderung memperoleh keuntungan informasi yang cukup besar atas pesaing
mereka.

3.4 Intelijen Bisnis


Intelejen bisnis adalah istilah yang digunakan untuk mendefinisikan proses yang terkait
dengan aktivitas pengumpulan, pengendalian dan pemanipulasian, dan penganalisaan data dari
sumber masa lalu dan sekarang, serta menyediakan pelaporan intelejen (terkait dengan
pemahaman atas rekaman kondisi masa lalu hingga sekarang) yang memfasilitasi para pengambil
keputusan bisnis yang terinformasi baik. Oleh karenanya, intelijen bisnis sering disebut juga
sebagai sistem pendukung keputusan.
Quicken Loans, Inc. adalah pemberi pinjaman hipotek online terbesar dan pemberi
pinjaman ritel terbesar kedua di Amerika Serikat. Perusahaan yang berbasis di Detroit menutup
lebih dari $ 70 miliar pinjaman rumah pada tahun 2012, yang lebih dari dua kali lipat angka $ 30
miliar pada tahun 2011. Pada tahun 2013, Quicken Loans melanjutkan pertumbuhan eksplosifnya,
menutup rekor perusahaan $ 80 miliar dalam volume pinjaman rumah. Perusahaan juga
meningkatkan kemampuan layanan pinjamannya menjadi penyedia jasa hipotek terbesar ke-11 di
negara ini, dengan lebih dari $ 138 miliar pinjaman rumah dalam portofolionya.
Pada tahun 2014 FORTUNE Magazine menempatkan Quicken Loans sebagai salah satu
dari 5 tempat teratas untuk bekerja secara nasional, yang menandai 11 tahun berturut-turut di
peringkat 30 teratas studi budaya tempat kerja Fortune. Untuk tahun keempat berturut-turut,
perusahaan ini dinamai oleh J.D. Power sebagai yang tertinggi dalam kepuasan pelanggan di antara
semua pemberi kredit rumah di Amerika.
Salah satu faktor kunci keberhasilan adalah BI. Pada Penghargaan Praktik Terbaik
Perguruan Tinggi Data Warehousing Institute (TDWI) 2013 yang mengakui perusahaan untuk
solusi BI dan data pergudangan kelas dunia mereka, manajer Quicken menjelaskan:

39
Pertumbuhan ini dapat dikaitkan dengan keberhasilan platform peminjaman online kami.
Platform pinjaman berbasis teknologi kami yang skalabel telah memungkinkan kami untuk
menangani lonjakan besar dalam aplikasi pinjaman sambil tetap menutup waktu untuk sebagian
besar pinjaman kami pada 30 hari atau kurang. (TDWI, 2013)

Dengan menggunakan BI, perusahaan telah meningkatkan kecepatan dari aplikasi


pinjaman untuk menutup, yang memungkinkannya untuk memenuhi kebutuhan klien secara
menyeluruh dan secepat mungkin. Selama hampir satu dekade, manajemen kinerja telah berevolusi
dari proses manual pembuatan laporan ke dasbor yang digerakkan oleh BI dan peringatan yang
ditentukan pengguna yang memungkinkan para pemimpin bisnis untuk secara proaktif
menghadapi hambatan dan mengidentifikasi peluang untuk pertumbuhan dan peningkatan.
Bidang BI dimulai pada akhir 1980-an dan telah menjadi kunci keunggulan kompetitif di
seluruh industri dan di perusahaan dari semua ukuran. Apa yang dimulai sebagai alat untuk
mendukung penjualan, pemasaran, dan departemen layanan pelanggan telah berkembang luas
menjadi platform strategis perusahaan. Sementara sistem BI digunakan dalam manajemen
operasional divisi dan proses bisnis, mereka juga digunakan untuk mendukung pengambilan
keputusan strategis perusahaan. Perubahan dramatis yang telah terjadi selama beberapa tahun
terakhir adalah pertumbuhan permintaan untuk intelijen operasional di berbagai sistem dan bisnis
meningkatkan jumlah orang yang membutuhkan akses ke peningkatan jumlah data. Kondisi bisnis
yang rumit dan kompetitif tidak meninggalkan banyak kesalahan.

MANFAAT BISNIS BI
BI menyediakan data pada saat nilai kepada pembuat keputusan memungkinkannya untuk
mengambil fakta-fakta penting dari data perusahaan secara real time atau mendekati waktu nyata.
Solusi BI dengan dashboard yang dirancang dengan baik, misalnya, menyediakan pengecer dengan
visibilitas yang lebih baik ke dalam persediaan untuk membuat keputusan yang lebih baik tentang
apa yang harus dipesan, berapa banyak, dan kapan untuk mencegah kehabisan stok atau
meminimalkan inventaris yang ada di rak-rak gudang.
Perusahaan menggunakan solusi BI untuk menentukan pertanyaan apa yang harus
ditanyakan dan mencari jawabannya. Alat BI mengintegrasikan dan mengkonsolidasikan data dari
berbagai sumber internal dan eksternal dan kemudian mengolahnya menjadi informasi untuk

40
membuat keputusan yang cerdas. BI menjawab pertanyaan seperti ini: Produk mana yang memiliki
tingkat penjualan berulang tertinggi dalam enam bulan terakhir? Apakah pelanggan suka di
Facebook berhubungan dengan pembelian produk? Bagaimana tren penjualan dikelompokkan
berdasarkan grup produk selama lima tahun terakhir? Apa yang terlihat seperti penjualan harian di
setiap wilayah penjualan saya?
Menurut TDWI, BI “menyatukan data, teknologi, analitik, dan pengetahuan manusia untuk
mengoptimalkan keputusan bisnis dan pada akhirnya mendorong kesuksesan perusahaan. Program
BI biasanya menggabungkan gudang data perusahaan dan platform BI atau set alat untuk
mengubah data menjadi informasi bisnis yang dapat digunakan dan dapat ditindaklanjuti ”(TDWI,
2014). Selama bertahun-tahun, para manajer mengandalkan analisis bisnis untuk membuat
keputusan yang lebih baik. Berbagai survei dan studi menyepakati pentingnya BI dalam
menganalisis kinerja masa lalu dan mengidentifikasi peluang untuk meningkatkan kinerja masa
depan.

TANTANGAN UMUM: PEMILIHAN DAN KUALITAS DATA


Perusahaan tidak dapat menganalisis semua data mereka dan banyak dari mereka tidak
akan menambah nilai. Oleh karena itu, tantangan tak berujung adalah bagaimana menentukan data
yang akan digunakan untuk BI dari apa yang tampaknya seperti opsi tidak terbatas (Schroeder,
2013). Salah satu tujuan strategi BI adalah menyediakan kerangka kerja untuk memilih data yang
paling relevan tanpa membatasi pilihan untuk mengintegrasikan sumber data baru. Informasi
yang berlebihan merupakan masalah utama bagi para eksekutif dan karyawan. Tantangan umum
lainnya adalah kualitas data, khususnya yang berkaitan dengan informasi online, karena sumber
dan keakuratannya mungkin tidak dapat diverifikasi.

MENDAPATKAN STRATEGI BISNIS DENGAN STRATEGI BI


Laporan dan dasbor adalah alat pengiriman, tetapi mereka mungkin tidak memberikan
intelijen bisnis. Untuk mendapatkan nilai terbesar dari BI, CIO perlu bekerja dengan CFO dan para
pemimpin bisnis lainnya untuk menciptakan program tata kelola BI yang misinya adalah untuk
mencapai hal-hal berikut (Acebo et al., 2013):
1. Mengartikulasikan strategi bisnis dengan jelas.
2. Deconstruct strategi bisnis ke dalam satu set spesifik tujuan dan sasaran - target.

41
3. Identifikasi indikator kinerja utama (KPI) yang akan digunakan untuk mengukur kemajuan
menuju setiap target.
4. Prioritaskan daftar KPI.
5. Buat rencana untuk mencapai tujuan dan sasaran berdasarkan prioritas.
6. Perkirakan biaya yang dibutuhkan untuk menerapkan rencana BI.
7. Menilai dan memperbarui prioritas berdasarkan hasil bisnis dan perubahan dalam strategi
bisnis.
Setelah menyelesaikan kegiatan ini, analis BI dapat mengidentifikasi data yang akan
digunakan di BI dan sistem sumber. Ini adalah pendekatan pengembangan berbasis bisnis yang
dimulai dengan strategi bisnis dan bekerja mundur untuk mengidentifikasi sumber data dan data
yang perlu diperoleh dan dianalisis.
Bisnis menginginkan KPI yang dapat dimanfaatkan oleh pengguna dan manajemen
departemen. Selain itu, pengguna menginginkan akses waktu nyata ke data ini sehingga mereka
dapat memantau proses dengan latensi sekecil mungkin dan mengambil tindakan korektif setiap
kali KPI menyimpang dari nilai target mereka. Untuk menghubungkan perspektif strategis dan
operasional, pengguna harus dapat menelusuri dari angka yang sangat terkonsolidasi atau
diringkas menjadi angka-angka rinci dari mana mereka berasal untuk melakukan analisis
mendalam.

ARSITEKTUR DAN ANALITIK BI


Arsitektur BI sedang mengalami kemajuan teknologi dalam menanggapi data besar dan
tuntutan kinerja pengguna akhir (Watson, 2012). Vendor BI menghadapi tantangan sosial, sensor,
dan jenis data baru lainnya yang harus dikelola dan dianalisis. Salah satu kemajuan teknologi yang
dapat membantu menangani data besar adalah BI di cloud. Gambar 3.19 mendaftar faktor-faktor
kunci yang berkontribusi pada peningkatan penggunaan BI.

Perangkat Cerdas Di Mana Saja Data adalah Bisnis Besar


telah menciptakan permintaan akses ketika mereka memberikan wawasan yang
24/7 yang mudah untuk wawasan. mendukung keputusan dan tindakan.

Advanced Bl dan Analytics


Cloud Enabled Bl dan Analytics
membantu mengajukan pertanyaan
yang sebelumnya tidak diketahui dan menyediakan solusi berbiaya rendah dan
tidak dapat dijawab. fleksibel.
42
Gambar 3.19 Empat faktor yang berkontribusi terhadap peningkatan penggunaan BI.
Ini dapat di-host di cloud publik atau pribadi. Dengan cloud publik, penyedia layanan
menjadi host data dan / atau perangkat lunak yang diakses melalui koneksi Internet. Untuk cloud
pribadi, perusahaan menghosting data dan perangkat lunaknya sendiri, tetapi menggunakan
teknologi berbasis cloud.
Untuk BI berbasis cloud, opsi populer yang ditawarkan oleh semakin banyak vendor alat
BI adalah perangkat lunak sebagai layanan (SaaS). MicroStrategy menawarkan Cloud
MicroStrategy, yang menyediakan penyebaran cepat dengan mengurangi risiko dan biaya proyek.
Pendekatan cloud ini menarik bagi perusahaan kecil dan menengah yang memiliki staf TI yang
terbatas dan ingin mengendalikan biaya secara hati-hati. Potensi kerugian termasuk waktu respons
yang lebih lambat, risiko keamanan, dan risiko cadangan.

3.5 Manajemen Rekaman Elektronik


Semua organisasi membuat dan menyimpan catatan bisnis. Rekaman adalah dokumentasi
acara bisnis, tindakan, keputusan, atau transaksi. Contohnya adalah kontrak, penelitian dan
pengembangan, dokumen sumber akuntansi, memo, komunikasi pelanggan / klien, keputusan
perekrutan dan promosi, notulen rapat, pos sosial, teks, email, konten situs web, catatan basis data,
dan kertas dan file elektronik. Dokumen bisnis seperti spreadsheet, pesan e-mail, dan dokumen
pengolah kata adalah sejenis catatan. Sebagian besar rekaman disimpan dalam format elektronik
dan disimpan sepanjang siklus hidup mereka mulai dari pembuatan hingga pengarsipan akhir atau
penghancuran dengan sistem pengelolaan catatan elektronik (ERM).
Sistem ERM terdiri dari perangkat keras dan perangkat lunak yang mengelola dan
mengarsip dokumen elektronik dan dokumen kertas gambar; kemudian indeks dan simpan sesuai
dengan kebijakan perusahaan. Sebagai contoh, perusahaan mungkin diwajibkan oleh hukum untuk
menyimpan dokumen keuangan selama setidaknya tujuh tahun, desain produk selama beberapa
dekade, dan pesan email tentang promosi pemasaran selama setahun. Alat ERM utama adalah
perangkat lunak alur kerja, alat pengarang, pemindai, dan basis data. Sistem ERM memiliki
kemampuan pencarian dan pencarian sehingga dokumen dapat diidentifikasi dan diakses seperti
data dalam database. Sistem-sistem ini beragam mulai dari yang dirancang untuk mendukung
workgroup kecil hingga sistem enterprisewide dengan fitur lengkap dan Web-enabled.

43
TUGAS HUKUM UNTUK MENDAPATKAN RECORDS BUSINESS
Perusahaan harus siap untuk menanggapi audit, penyelidikan federal, tuntutan hukum, atau
tindakan hukum lainnya terhadap mereka. Jenis tuntutan hukum terhadap perusahaan termasuk
pelanggaran paten, kelalaian keamanan produk, pencurian kekayaan intelektual, pelanggaran
kontrak, penghentian salah, pelecehan, diskriminasi, dan banyak lagi.
Karena manajemen senior harus memastikan bahwa perusahaan mereka mematuhi tugas
hukum dan peraturan, mengelola catatan elektronik (e-records) adalah masalah strategis untuk
organisasi baik di sektor publik dan swasta. Keberhasilan ERM sangat bergantung pada kemitraan
banyak pemain kunci, yaitu, manajemen senior, pengguna, manajer arsip, arsiparis, administrator,
dan yang paling penting, personil TI. Dikelola dengan baik, catatan adalah aset strategis. Tidak
dikelola atau dihancurkan, mereka menjadi kewajiban.

PRAKTIK TERBAIK ERM


Sistem ERM yang efektif menangkap semua data dan dokumen bisnis di titik kontak
pertama mereka pusat data, laptop, ruang surat, di situs pelanggan, atau kantor jarak jauh. Rekaman
memasuki perusahaan dalam berbagai cara — dari formulir online, kode bar, sensor, situs web,
situs sosial, mesin fotokopi, email, dan banyak lagi. Selain menangkap seluruh dokumen secara
keseluruhan, data penting dari dalam dokumen dapat diambil dan disimpan dalam repositori
terpusat yang dapat dicari. Dengan cara ini, data dapat diakses untuk mendukung keputusan bisnis
yang diinformasikan dan tepat waktu.
Dalam beberapa tahun terakhir, organisasi seperti Asosiasi Informasi dan Manajemen
Gambar (AIIM; ww.aiim.org), Arsip Nasional dan Administrasi Arsip (NARA), dan ARMA
International (sebelumnya Asosiasi Pengelola dan Administrator Catatan; www.arma. org) telah
menciptakan dan mempublikasikan standar industri untuk manajemen dokumen dan catatan.
Banyak artikel praktik terbaik, dan tautan ke sumber informasi berharga tentang pengelolaan
dokumen dan catatan, tersedia di situs web mereka. IT at Work 3.5 menjelaskan prinsip-prinsip
pencatatan yang diterima ARMA secara umum.

MANFAAT ERM
Departemen atau perusahaan yang karyawannya menghabiskan sebagian besar hari mereka
untuk mengisi atau mengambil dokumen atau menyimpan catatan kertas dapat mengurangi biaya

44
secara signifikan dengan ERM. Sistem ini meminimalkan inefisiensi dan frustrasi yang terkait
dengan pengelolaan dokumen kertas dan alur kerja. Namun, mereka tidak membuat kantor tanpa
kertas seperti yang telah diprediksi.
ERM dapat membantu bisnis menjadi lebih efisien dan produktif dengan:
 Memungkinkan perusahaan untuk mengakses dan menggunakan konten yang terdapat
dalam dokumen.
 Memotong biaya tenaga kerja dengan mengotomatisasi proses bisnis.
 Mengurangi waktu dan upaya yang diperlukan untuk mencari informasi yang dibutuhkan
bisnis untuk mendukung pengambilan keputusan.
 Meningkatkan keamanan konten, sehingga mengurangi risiko pencurian kekayaan
intelektual.
 Meminimalkan biaya yang terkait dengan pencetakan, penyimpanan, dan pencarian
konten.
Ketika alur kerja digital, produktivitas meningkat, biaya berkurang, kewajiban kepatuhan
lebih mudah untuk diverifikasi, dan komputasi hijau menjadi mungkin. Green computing adalah
inisiatif untuk melestarikan sumber daya alam kita yang berharga dengan mengurangi efek
penggunaan komputer kita terhadap lingkungan. Anda dapat membaca tentang komputasi hijau
dan topik terkait untuk mengurangi jejak organisasi, keberlanjutan, dan tanggung jawab etis dan
sosial organisasi di Bab 14.

IT at Work 3.5
Prinsip-prinsip Perekaman yang Diterima Secara Umum
Prinsip-prinsip pencatatan yang diterima secara umum adalah kerangka kerja untuk
mengelola catatan bisnis untuk memastikan bahwa mereka mendukung persyaratan peraturan,
hukum, risiko mitigasi, lingkungan, dan operasional perusahaan saat ini dan mendatang.
Kerangka ini terdiri dari delapan prinsip atau praktik terbaik, yang juga mendukung tata
kelola informasi. Prinsip-prinsip ini diciptakan oleh ARMA Internasional dan profesional hukum
dan TI.
 Prinsip Akuntabilitas. Sebuah organisasi akan menugaskan seorang eksekutif senior
untuk mengawasi program pencatatan; mengadopsi kebijakan dan prosedur untuk
memandu personil; dan memastikan kemampuan audit program.

45
 Prinsip Transparansi. Proses dan kegiatan program pencatatan organisasi akan
didokumentasikan dengan cara yang dapat dimengerti dan tersedia bagi semua personel
dan pihak yang tepat.
 Prinsip Integritas. Program pencatatan dapat menjamin keaslian dan keandalan catatan
dan data dengan cukup memadai.
 Prinsip Perlindungan. Program pencatatan akan dibangun untuk memastikan tingkat
perlindungan yang wajar terhadap catatan dan informasi yang bersifat pribadi, rahasia,
istimewa, rahasia, atau penting untuk kelangsungan bisnis.
 Prinsip Kepatuhan. Program pencatatan akan mematuhi hukum, otoritas, dan kebijakan
organisasi yang berlaku.
 Prinsip Ketersediaan. Rekaman akan dipertahankan dengan cara yang memastikan
pengambilan informasi yang dibutuhkan secara tepat waktu, efisien, dan akurat.
 Prinsip Retensi. Catatan dan data akan disimpan untuk waktu yang tepat berdasarkan
persyaratan hukum, peraturan, fiskal, operasional, dan historis.
 Prinsip Disposisi. Rekaman akan dibuang dengan aman ketika tidak lagi diperlukan untuk
dipelihara oleh undang-undang atau kebijakan organisasi.

ERM UNTUK PEMULIHAN BENCANA, KONTINUASI BISNIS, DAN KEPATUHAN


Bisnis juga bergantung pada sistem ERM mereka untuk pemulihan bencana dan
kelangsungan bisnis, keamanan, berbagi pengetahuan dan kolaborasi, dan akses jarak jauh dan
terkontrol ke dokumen. Karena sistem ERM memiliki kemampuan akses berlapis-lapis, karyawan
dapat mengakses dan mengubah hanya dokumen yang berwenang untuk mereka tangani.
Ketika perusahaan memilih ERM untuk memenuhi persyaratan kepatuhan, mereka harus
mengajukan pertanyaan berikut:
1. Apakah perangkat lunak memenuhi kebutuhan organisasi? Misalnya, dapatkah DMS
dipasang di jaringan yang ada? Apakah dapat dibeli sebagai layanan?
2. Apakah perangkat lunak mudah digunakan dan dapat diakses dari browser Web, aplikasi
resmi, dan aplikasi e-mail? Jika tidak, orang tidak akan menggunakannya.
3. Apakah perangkat lunak memiliki antarmuka Web yang ringan, modern, dan grafis
pengguna yang secara efektif mendukung pengguna jarak jauh?

46
4. Sebelum memilih vendor, penting untuk memeriksa alur kerja dan bagaimana data,
dokumen, dan aliran komunikasi di seluruh perusahaan. Misalnya, tahu informasi mana
pada dokumen yang digunakan dalam keputusan bisnis. Setelah kebutuhan dan persyaratan
tersebut diidentifikasi, mereka memandu pemilihan teknologi yang dapat mendukung jenis
input yaitu, menangkap dan mengindeksnya sehingga dapat diarsipkan secara konsisten
dan diambil sesuai permintaan.

47
BAB III
Penutup

KESIMPULAN
Data berkualitas tinggi dan keahlian manusia sangat penting untuk nilai analitik. . Keahlian
manusia diperlukan karena analisis saja tidak dapat menjelaskan alasan untuk tren atau hubungan;
menjelaskan tindakan apa yang harus diambil; atau memberikan konteks yang cukup untuk
menentukan apa yang diwakilkan oleh angka dan bagaimana menginterpretasikannya.
Database adalah kumpulan kumpulan data atau catatan yang disimpan secara sistematis.
Bebrapa teknologi menajemen data yang membuat penggunanya mendapat informasi dan
mendukung berbagai tunutan bisnis yaitu, Database (TPS), Gudang data, Data mart dan yang
terakhir adalah Alat dan teknik intelijen bisnis (BI).
Pada kasus ini Manajemen Data Perusahaan Seperti kebanyakan perusahaan global, Coca-
Cola mengandalkan manajemen data perusahaan yang canggih, BI, dan teknologi analitik untuk
mempertahankan kinerjanya di pasar yang sangat kompetitif. Data dikelola dalam basis data
terpusat. Semua data distandardisasi melalui serangkaian proses manajemen data master (MDM),
EDW menciptakan pandangan tepercaya tentang pelanggan, penjualan, dan transaksi,
memungkinkan Coca-Cola merespons dengan cepat dan akurat terhadap perubahan dalam kondisi
pasar. Coca-Cola mengambil pendekatan strategis daripada pendekatan taktis dengan data besar.
Perusahaan ini jauh lebih maju dalam penggunaan data besar untuk mengelola produknya,
pendapatan penjualan, dan pengalaman pelanggan dalam waktu dekat dan untuk mengurangi
biaya. keputusan untuk memberikan perpaduan optimal secara konsisten.
Dengan kekuatan data besar dan model keputusan, Coca-Cola dipersiapkan untuk
gangguan pasokan jauh sebelumnya untuk percepatan bisnis.

48
DAFTAR PUSTAKA

https://id.wikipedia.org/wiki/Intelejen_bisnis
https://en.wikipedia.org/wiki/Big_data
https://id.wikipedia.org/wiki/Sistem_manajemen_basis_data
Lucas, H.C. Jr. “ Information Tegnology For Management, McGraw Hill, 2000 Hollander, AS.
Denna, E.L. and Cherrington, J.O, Accounting Information Tecnology, and Business
Solution, McGraw Hill, 2nd Edition 2000.

49

Вам также может понравиться