Gambar

Kamis, 31 Maret 2011

Pengenalan Logika Fuzzy

Terima Kasih,, sudah lama ni saya sudah tidak mengupdate artikel, jadi artikel kali ini saya akan berbagi sedikit tentang LOGIKA FUZZY,, apa seh logika fuzzy, penemu nya pertama kali, dan alasan digunakannya Logika Fuzzy, akan sedikit dibahas di artikel ini, mohon maaf jika ada artikel yang salah,,
Tahun 1965, Lotfi Zadeh menemukan sebuah himpunan kabur (fuzzy set) dimana setiap anggotanya memiliki derajat keanggotaan yang bernilai kontinu antara 0 sampai 1. dan merupakan salah satu cara untuk memetakan suatu ruang input ke ruang output.
Alasan Menggunakan Logika Fuzzy :


Konsep mudah dimengerti

1. Sangat fleksibel
2. Memiliki toleransi terhadap data-data yang tidak tetap
3. Mampu memodelkan fungsi-fungsi nonlinear yang sangat kompleks
4. Dapat membangun dan mengaplikasikan pengalaman-pengalaman para pakar secara langsung tanpa harus melewati proses pelatihan
5. Didasarkan pada bahasa alami
6. Dapat bekerja sama dengan teknik-teknik kendali secara konvensional

Contoh : watak kekaburan




Aplikas Logika Fuzzy yang telah ada :
1. Sistem Fuzzy yang digunakan untuk menentukan putaran yang tepat secara otomatis berdasarkan jenis dan kotoran serta jumlah yang akan dicuci.
input : seberapa kotor, jenis kotoran, dan banyaknya yang dicuci
Menggunakan sensor optik (makin kotor, cahaya yang sampai akan redup)
Sistem dapat menentukan jenis kotoran(daki atau minyak).

Mungkin hanya segini dulu artikel tentang logika fuzzy, nanti ketika ada artikel tambahan, atau teman-teman ingin menambah silahkan comment ya.. terima kasih
Selengkapnya...

Senin, 11 Oktober 2010

10 Etika dalam Berkomputer


Teman-teman,, pasti sering kan bermain komputer,, apakah teman-teman semua tahu kalau bermain komputer itu ada etika nya,, mngkin 10 etika dalam berkomputer ini dapat membantu teman-teman semua, supaya lebih bersahabat pada komputer, dan juga tidak membahayakan kita dalam pemakainanya juga.
ini 10 etika yang harus kita patuhi dalam bemain komputer :

1. Jangan menggunakan komputer untuk merugikan orang lain
Dalam menggunakan komputer kita tidak boleh merugikan orang lain, misalnya menggunakan komputer untuk membobol sebuah bank, menggunakan komputer untuk membuat virus,menggunakan komputer untuk merusak sistem keamanan seseorang.

2. Jangan melanggar atau mengganggu hak atau karya komputer orang lain
Bagi pengguna komputer,diharapkan jangan mengganggu dan menggunakan komputer untuk mengganggu hak-hak orang lain,seperti melakukan pembajakan terhadap karya orang lain,meginstal sebuah program yang tidak legal.

3. Jangan memata-matai file-file yang bukan haknya
Memata-matai,mengintai dan mengambil data milik orang lain yang bukan haknya,sebaiknya hal tersebut tidak dilakukan oleh penggun komputer karna sangat merugikan orang lain dan kegiatan ini biasa dilakukan oleh para Cracker dan Hacker yang tidak bertanggung jawab.

4. Jangan menggunakan komputer untuk mencuri
Ini biasa digunakan oleh perampok-perampok dan pencuri yang biasa menggunakan komputer untuk membobol sistem keamanan sebuah bank,dan digunakan oleh para teroris untuk mencari dana dengan membobol identitas pribadi targetnya.

5. Jangan menggunakan komputer untuk memberikan kesaksian palsu
Menggunakan komputer untuk menyebarkan berita-berita palsu dan berkebalikan dengan fakta,serta mengumbar informasi tentang seseorang yang semuanya berupa kebohongan,dan cenderung kepada pelanggaran hukum yaitu merusak nama baik seseorang.

6. Jangan menduplikasi atau menggunakan software tanpa membayar
Ini yang biasa dilakukan masyarakat awam yang biasanya dengan tampang tidak berdosa menduplikasi software atau data seseorang tanpa mencantumkan sumber yang dia ambil

7. Jangan menggunakan sumberdaya komputer orang lain tanpa sepengetahuan yang bersangkutan
Apabila kita ingin membuka computer orang lain,kita diharapkan meminta izin dari empunya terlebih dahulu.

8. Jangan mencuri kekayaan intelektual orang lain
Ini seperti menduplikatkan sebuah software lalu memperbanyaknya dan kemudian di komersialkan

9. Pertimbangkan konsekuensi dari program yang dibuat atau sistem komputer yang dirancang

Dalam membuat sebuah program hendaknya kita menilai sisi positif dan negatifnya,apabila program yang kita buat lebih banyak dampak buruknya lebih baik kita menghentikan membuat program itu.

10. Selalu mempertimbangkan dan menaruh respek terhadap sesama saat menggunakan komputer
Dalam menggunakan komputer kita harus mempertimbangkan setiap sisi baik buruknya,jangan sampai kita merugikan pihak lain.

Selengkapnya...

Perbedaan Kecerdasan Buatan dan Kecerdasan Alami


Di Postingan kali ini saya akan menjelaskan sedikit perbedaan antara kecerdasan alami dan kecerdasan buatan, mungkin dengan penjelasan in teman-teman bisa mengerti perbedaan tersebut dan menggangap kecerdasan buatan dan alami sama.

Kecerdasan Buatan:

1. Lebih bersifat permanen. Kecerdasan alami bisa berubah karena sifat manusia pelupa. Kecerdasan buatan tidak berubah selama sistem komputer & program tidak mengubahnya.

2. Lebih mudah diduplikasi & disebarkan. Mentransfer pengetahuan manusia dari 1 orang ke orang lain membutuhkan proses yang sangat lama & keahlian tidak akan pernah dapat diduplikasi dengan lengkap. Jadi jika pengetahuan terletak pada suatu sistem komputer, maka pengetahuan tersebut dapat disalin dari komputer tersebut & dapat dipindahkan dengan mudah ke komputer yang lain.

3. Lebih murah. Menyediakan layanan komputer akan lebih mudah & murah dibandingkan mendatangkan seseorang untuk mengerjakan sejumlah pekerjaan dalam jangka waktu yang sangat lama.

4. Bersifat konsisten karena kecerdasan buatan adalah bagian dari teknologi komputer sedangkan kecerdasan alami senantiasa berubah-ubah.

5. Dapat didokumentasi.Keputusan yang dibuat komputer dapat didokumentasi dengan mudah dengan cara melacak setiap aktivitas dari sistem tersebut. Kecerdasan alami sangat sulit untuk direproduksi.

6. Lebih cepat.

7. lebih baik

Sedangkan kecerdasan Alami

1. Kreatif : manusia memiliki kemampuan untuk menambah pengetahuan, sedangkan pada kecerdasan buatan untuk menambah pengetahuan harus dilakukan melalui sistem yang dibangun.

2. Memungkinkan orang untuk menggunakan pengalaman secara langsung. Sedangkan pada kecerdasan buatan harus bekerja dengan input-input simbolik.

3. Pemikiran manusia dapat digunakan secara luas, sedangkan kecerdasan buatan sangat terbatas.

Selengkapnya...

History Of Al


Di awal abad 20, seorang penemu Spanyol, Torres y Quevedo, membuat sebuah mesin yang dapat men’skak-mat’ raja lawannya dengan sebuah ratu dan raja.
Perkembangan secara sistematis kemudian dimulai segera setelah diketemukannya komputer digital. Artikel ilmiah pertama tentang Kecerdasan Buatan ditulis oleh Alan Turing pada tahun 1950, dan kelompok riset pertama dibentuk tahun 1954 di Carnegie Mellon University oleh Allen Newell and Herbert Simon. Namun bidang Kecerdasan Buatan baru dianggap sebagai bidang tersendiri di konferensi Dartmouth tahun 1956, di mana 10 peneliti muda memimpikan mempergunakan komputer untuk memodelkan bagaimana cara berfikir manusia. Hipotesis mereka adalah: “Mekanisme berfikir manusia dapat secara tepat dimodelkan dan disimulasikan pada komputer digital”, dan ini yang menjadi landasan dasar Kecerdasan Buatan.

AI berkaitan erat dengan disiplin ilmu lain antara lain (has roots in a number of scientific disciplines)
– computer science and engineering (hardware and software)
– philosophy (rules of reasoning/aturan pertimbangan)
– mathematics (logic, algorithms, optimization/ logika, algoritma,optimasi)
– cognitive science (ilmu kognitif) and psychology (modeling high level human/animal thinking/ pemodelan pemikiran tingkat tinggi untuk manusia dan hewan)
– neural science (ilmu syaraf) (model low level human/animal brain activity/pemodelan aktivitas otak tingkat rendah untuk manusia dan hewan))
– linguistics (ilmu bahasa),Ekonomi dll.

• The birth of AI (1943 – 1956)
– Pitts and McCulloch (1943): simplified mathematical model of neurons (resting/firing states) can realize all propositional logic primitives (can compute all Turing computable functions). Rangkaian Boolean model pikiran. Penyederhanaan model neuron yang dapat direalisasikan dengan semua logika primitive proposional.
– Allen Turing: Turing machine and Turing test (1950). Mesin Turing dan Turing Test.
– Claude Shannon: information theory; possibility of chess playing computers. Teory informasi, kemungkinan dalam permainan catur oleh computer.

• Early enthusiasm (1952 – 1969)
– 1956 Dartmouth conference. Dalam konferensi “Artificial Intelligence” diadopsi dan dianggap sebagai kelahiran AI.
– 1958 Emphasize on intelligent problem soving: Penekanan pada intelligent problem solving antara lain : John McCarthy mengembangkan bahasa pemrograman AI yaitu LISP;
Marvin Minsky membuat mesin neural network pertama (first neural network machine);
Alan Newell and Herbert Simon mengembangkan GPS (analis means-ends);
Resolution by John Robinson: John Robinson menyelesaikan algoritma untuk pertimbangan dan ini menjadi dasar untuk pembuktian teorema secara otomatis (basis for automatic theorem proving);
• Emphasis on knowledge (1966 – 1974)
– AI menemukan kompleksitas komputasi, penelitian Neural network hampir lenyap. Muncul paradigma representasi pengetahuan (Knowledge representation paradigms atau KR)
– declarative vs. procedural representation: Muncul pertentangan antara representasi deklaratif dan representasi procedural.
– 1972 Bahasa PROLOG (Programming in Logic) pertama kali dikembangkan oleh Alain Colmenrauer dan P.Rousssel di universitas Marseilles Perancis.

• 1969 – 1979 Pengembangan awal system berbasis pengetahuan (Knowledge-based systems):
– DENDRAL: the first knowledge intensive system (determining 3D structures of complex chemical compounds/ menentukan struktur 3D senyawa kimia kompleks)
– MYCIN: first rule-based expert system (containing 450 rules for diagnosing blood infectious diseases). merupakan system pakar berbasis aturan pertama yang memuat/terdiri atas 450 aturan untuk mendiagnose penyakit infeksi darah.
– PROSPECTOR: first knowledge-based system that made significant profit (geological ES for mineral deposits). Sistem berbasis pengetahuan pertama yang membuat keuntungan yang berarti. Sistem ini merupakan sistem pakar (ES) geologi untuk endapan mineral.

• AI became an industry (1980 – 1989). AI menjadi suatu industri.
– wide applications in various domains. Penggunaan AI secara luas dengan berbagai variasi domain.
– commercially available tools. Pengkomersialan AI. Penjualan hardware berbasis AI ke perusahaan-perusahaan.

• 1986-1988. Neural Networks kembali popular

• Current trends (1990 – present)
– more realistic goals (Tujuan dibuat lebih realistic)
– more practical (application oriented). Lebih praktis berorientasi aplikasi.
– distributed AI and intelligent software agents.
– resurgence of neural networks and emergence of genetic algorithms. Munculnya algoritma genetika

Beberapa definisi AI:
1. Studi tentang bagaimana membuat computer dapat mengerjakan sesuatu yang dapat dikerjakan oleh manusia (Rich, 1991).
2. Cabang ilmu computer yang mempelajari otomatisasi tingkah laku cerdas (Setiawan, 1993).
3. Suatu perilaku mesin yang jika dikerjakan oleh manusia akan disebut cerdas (Turing, et al, 1996).
4. Untuk mengetahui dan memodelkan proses-proses berpikir manusia dan mendesain mesin agar dapat menirukan perilaku manusia (John McCarthy, 1956)

Para pakar setuju bahwa Kecerdasan Buatan berhubungan dengan dua ide dasar:
1. Menyangkut studi proses berpikir manusia.
2. Berhubungan dengan merepresentasikan proses tersebut melalui mesin (komputer, robot dll).

Manusia dikatakan cerdas dalam menyelesaikan permasalahan harus mempunyai bekal pengetahuan dan pengalaman. Pengetahuan diperoleh dari belajar. Semakin banyak bekal pengetahuan yang dimiliki tentu akan lebih mampu menyelesaikan permasalahan. Tapi bekal pengetahuan saja tidak cukup, manusia juga diberi akal untuk melakukan penalaran,mengambil kesimpulan berdasarkan pengetahuan & pengalaman yang dimiliki. Tanpa memiliki kemampuan untuk menalar dengan baik, manusia dengan segudang pengalaman dan pengetahuan tidak akan dapat menyelesaikan masalah dengan baik. Demikian juga dengan kemampuan menalar yang sangat baik,namun tanpa bekal pengetahuan dan pengalaman yang memadai,manusia juga tidak akan bisa menyelesaikan masalah dengan baik.

Oleh karena itu agar mesin bisa cerdas (dapat bertindak sebaik & seperti manusia), maka mesin harus diberi bekal pengetahuan & kemampuan untuk menalar.

Selengkapnya...

Senin, 05 Juli 2010

Cara CPU Bekerja

Central Processing Unit (CPU): otak yang ada didalam sebuah PC yang memproses data serta unit yang menentukan kekuatan dan harga dari sebuah komputer.

Dalam setahun ke belakang, kecepatan CPU meningkat drastis dari 600 MHz menjadi 1 GHz, dan baru-baru ini Intel mengumumkan telah mengapalkan Pentium III 1,13 GHz. Pada akhir tahun ini diperkirakan kecepatan di atas 1,5 GHz akan terlampaui, menandakan perlombaan CPU tercepat telah dimulai. Ini ada sebuah tip: Kinerja CPU di PC Anda tidak hanya ditentukan oleh angka megahertz atau gigahertz yang banyak diiklankan perakit PC di majalah atau Internet. Dengan peningkatan kecepatan chip dan aplikasi yang membutuhkan tenaga yang lebih besar.


Yang Anda perlu ketahui:

· Sebuah CPU melakukan tiga tugas utama: Membaca data, memproses data, dan biasanya menulis data ke memori.
· Kecepatan kasar (raw speed) diukur dalam skala megahertz, tetapi bagian lainnya seperti desain arsitektur chip juga menentukan kinerja dari CPU tersebut.
· Chip yang Anda inginkan dalam PC Anda tergantung pada berapa banyak yang akan Anda keluarkan dan untuk apa Anda menggunakan PC tersebut.

Membangun Blok

Sebelum Anda mengerti bagaimana sebuah CPU bekerja, Anda perlu mengetahui bagaimana sebuah CPU dibuat. Sebuah CPU terdiri dari jutaan transistor mikroskopis yang melalui pemrosesan secara kimiawi dan photolithografis untuk menjadi sebuah cetakan silikon yang besarnya tidak lebih dari ibu jari Anda.

Transistor kecil mungil itu menyimpan pulsa elektrik yang memberikan nilai satu atau nol, yang membentuk sistem bahasa binari yang digunakan komputer untuk berkomunikasi. Grup transistor tersebut saling terhubungkan untuk menyimpan nilai-nilai; mereka juga melakukan kalkulasi logika dan matematika, dan dengan bantuan sebuah jam kristal kuartz, mereka melakukan fungsinya seperti layaknya pendayung perahu naga yang mendayung secara tersinkronisasi. Dengan kata lain, mereka dapat memproses data.

Proses Sebuah CPU

Sebuah CPU memproses informasi yang disimpan dalam bentuk byte di memori. Informasi tersebut dapat berupa data atau instruksi. Data adalah bentuk biner dari sebuah huruf, sebuah angka, atau sebuah warna. Sebuah instruksi memberitahu CPU apa yang harus dilakukan terhadap data tersebut, sebagai contoh: menambahkannya, membaginya, atau memindahkannya

CPU akan melakukan tiga operasi utama terhadap data tersebut: membacanya, memanipulasi (memproses) data tersebut, dan seringkali menuliskannya ke dalam memori. Pada tingkat yang lebih sederhana, CPU hanya memerlukan empat elemen untuk melakukan operasi terhadap datanya: instruksi, penunjuk instruksi, beberapa register, dan sebuah aritmethic logic unit.

Penunjuk instruksi akan memberitahu CPU dimana instruksi tersebut diletakkan di memori saat dibutuhkan untuk menjalankan aplikasi.

Register adalah tempat penyimpanan sementara di CPU. Sebuah register menyimpan sebuah data yang menunggu untuk diproses oleh sebuah instruksi, atau sebuah data yang telah diproses (misalkan, hasil dari penambahan dua angka sekaligus).

Unit logika aritmatika (arithmetic logic unit/ALU) berfungsi sebagai kalkulatornya CPU, bekerja dengan fungsi matematika dan logika yang diperintahkan oleh set instruksi.

CPU terdiri atas beberapa bagian tambahan yang membuat bagian dasar CPU bekerja sebagaimana mestinya:

· Fetch instruksi mengambil instruksi dari RAM atau bagian dari memori yang terletak di CPU.

· Dekoder instruksi mengambil instruksi dari fetch dan menerjemahkannya sehingga CPU mengerti. Dekoder ini menentukan langkah selanjutnya yang harus dilakukan untuk menyelesaikan instruksi tersebut.

· Unit kontrol akan mengatur dan mengkoordinasikan seluruh operasi chip. Unit ini akan memberitahu ALU kapan untuk melakukan kalkulasi, kemudian memberitahu fetch kapan untuk mengambil sebuah nilai, dan memberitahu dekoder kapan untuk menerjemahkan nilai tersebut menjadi sebuah instruksi.

Menjejak Sebuah Instruksi
Beginilah caranya CPU melakukan tugasnya: penunjuk instruksi mengarahkan fetch instruksi ke sebuah spot di memori yang menampung sebuah instruksi. Fetch kemudian menangkap instruksi tersebut dan memberikannya ke dekoder instruksi, kemudian mengamati instruksi tersebut dan menentukan langkah selanjutnya untuk melengkapi instruksi tersebut (sebuah instruksi dapat terdiri dari rangkaian langkah yang harus dilengkapi dalam urutan tertentu).

ALU kemudian mengerjakan perintah yang diminta instruksi: menambah data, membagi data, atau memanipulasi data yang ada. Setelah CPU menerjemahkan dan mengerjakan instruksi, unit kontrol memberitahukan fetch instruksi untuk menangkap instruksi berikutnya di memori. Proses ini berlangsung terus menerus--dari satu instruksi ke instruksi berikutnya, dalam suatu langkah yang rumit--untuk menciptakan hasil yang dapat Anda lihat di monitor. Itulah kerjanya sebuah program
seperti pengolah kata: sebuah seri instruksi-instruksi dan data-data.

Untuk meyakinkan semua itu berjalan dalam satu kesatuan waktu, bagian itu memerlukan suatu clock generator. Clock generator meregulasi setiap langkah yang dikerjakan CPU. Seperti sebuah metronome, sebuah clock generator mengirim pulsa-pulsa elektrik untuk menentukan langkah CPU. Pulsa tersebut diukur dalam jutaan langkah per detik, atau megahertz, yang Anda kenal sebagai ukuran kecepatan CPU. Semakin banyak pulsa dibuat, semakin cepat CPU bekerja. Dalam keadaan ideal, seharusnya sebuah CPU berkecepatan 700 MHz bekerja lebih cepat dibanding CPU 600 MHz, tetapi tambahan dan variasi pada basis CPU dapat membuat angka-angka tersebut tidak berarti.


Meningkatkan Basis CPU
Sebuah CPU hanya memerlukan sedikit bagian untuk melakukan tugasnya, tetapi desain dasar tersebut telah dimodifikasi selama bertahun-tahun untuk meningkatkan kinerja secara keseluruhan. Tujuan utama peningkatan tersebut sama: memproses data lebih cepat.

Sambil mencari cara untuk meningkatkan kecepatan pemrosesan, pembuat chip menyadari bahwa CPU tidak melakukan pemrosesan selama mereka melakukan fetching untuk sebuah instruksi atau data dari RAM sistem. Untuk mereduksi downtime tersebut, mereka menempatkan sebuah area penyimpanan, yang dikenal sebagai cache, dalam sebuah CPU. Data dan instruksi dapat ditempatkan sementara di CPU itu sendiri, mengurangi perjalanan data atau instruksi dari RAM.

Menambah ide penyediaan cache, pembuat sistem menempatkan RAM berkecepatan tinggi (dan mahal)--yang dikenal sebagai cache tingkat 2 atau L2 cache--antara cache CPU tingkat satu dan RAM sistem. Semakin dekat ke CPU berarti semakin pendek jarak yang harus ditempuh ke RAM sistem. Cache sekunderi ini sangat bermanfaat untuk meningkatkan kinerja sehingga semakin banyak prosesor yang mengintegrasinya ke dalam CPU-nya itu sendiri, menciptakan lebih banyak ruang untuk menyimpan data dan instruksi.

Lebih banyak ALU dan Sebuah FPU
Untuk meningkatkan kinerja kalkulasi, pembuat chip menempatkan sebuah unit aritmetik logika (arithmetic logic unit/ALU) di dalam CPU. Secara teoritis ini berarti pemrosesan dapat dilakukan dua kali lebih cepat dalam satu langkah. Menggunakan multiple ALU akan tampak seperti menambah tukang kayu lagi dalam membuat lemari dapur, yang berarti mempercepat penyelesaian pekerjaan.

Sebagai tambahan multiple ALU, Intel mengintegrasikan floating point unit ke dalam CPU. FPU ini menangani angka dari yang paling besar hingga yang paling kecil (yang memiliki banyak angka di belakang koma). Sementara FPU menangani kalkulasi semacam itu, ALU menjadi bebas untuk melakukan tugas lain dalam waktu yang bersamaan, untuk meningkatkan kinerja.

Advanced Micro Devices dan Intel juga menambah kecepatan pemrosesan instruksi dengan melakukan pipelining instruksi, atau menjalankan instruksi secara paralel satu dengan lainnya. Eksekusi dari sebuah instruksi memerlukan langkah yang terpisah--sebagai contoh, fetching dan dekoding sebuah instruksi. Sebenarnya CPU harus menyelesaikan sebuah instruksi secara keseluruhan sebelum melanjutkan ke instruksi berikutnya. Sekarang sirkuit yang berbeda menangani langkah yang terpisah tersebut.

Begitu sebuah instruksi telah selesai dalam satu langkah untuk dilanjutkan ke langkah berikutnya, transistor yang mengerjakan langkah pertama bebas untuk mengerjakan instruksi berikutnya, sehingga akan mempercepat kerja pemrosesan. Ini mirip dengan mendaki tangga: begitu kaki Anda meninggalkan sebuah anak tangga, orang yang di belakang Anda dapat menggunakannya untuk dinaiki.

Sebagai tambahan untuk meningkatkan kinerja adalah memprediksi cabang-cabang instruksi, yaitu memperkirakan lompatan yang akan dilakukan sebuah program dapat dilakukan; eksekusi secara spekulatif, yaitu mengeksekusi cabang instruksi yang ada di depat; dan penyelesaian tanpa mengikuti urutan, yakni kemampuan untuk menyelesaikan sebuah seri instruksi tidak berdasarkan urutan normal.

Perubahan-perubahan tersebut membuat peningkatan kecepatan clock, seperti lompatan hingga 1 GHz pada bulan Februari lalu, bukan lagi menjadi keutamaan kinerja. Tes yang dilakukan oleh majalah komputer PC World menunjukkan bahwa lompatan kecepatan bukan lagi menjadi hal utama dalam peningkatan kinerja, terutama pada aplikasi perkantoran, yang sangat tergantung pada kecepatan hard drive dan jumlah serta kecepatan RAM sistem.

CPU dalam PC Anda
Dua pemain mendominasi pasar CPU PC: Intel (www.intel.com), yang menguasai 80 persen pangsa pasar PC rumah dan bisnis, dan Advanced Micro Devices (www.amd.com). Kedua perusahaan tersebut membuat model untuk mesin-mesin high-end, midrange, dan low-end. Perusahaan lain juga memproduksi CPU, seperti Motorola PowerPC 750 (www.mot-sps.com), yang memberi tenaga untuk komputer-komputer Macintosh.

AMD Athlon dan Intel Pentium III saling berbagi pasar untuk CPU bertenaga lebih yang menjalankan sistem operasi Microsoft Windows. Keduanya hampir seimbang dalam desain dan performa, termasuk peningkatan kinerja untuk menjalankan software game 3D dan CAD (computer aided design).

CPU high-end dari Intel dan AMD banyak terdapat pada berbagai jenis PC, dari sistem rumahan kelas menengah (antara 600 hingga 850 MHz) hingga workstation rekayasa industri dan sistem multimedia high-end yang paling mahal (dari 866 MHz ke atas). Untuk model terbaru, PC dengan CPU ini harganya berkisar antara $200 hingga $1000.

Untuk kelas high-end, PC dengan chip 1 GHz akan berharga $2700 hingga $3300, tergantung pada komponen yang ditawarkan oleh perakit PC. Untuk sistem kelas menengah, yang menggunakan chip AMD atau Intel berkecepatan 600 hingga 850 MHz harganya sekitar $900 hingga $1600.

Chip berharga ekonomis (di bawah $150) biasanya berjalan dengan kecepatan clock lebih rendah dari Athlon dan P-III, cache yang lebih sedikit atau lebih lambat, dan memiliki peningkatan kinerja yang lebih kecil. AMD K6-III dan K6-2 serta Intel Celeron ditujukan untuk PC-PC dengan harga kurang dari $1000.

Komputer portabel biasanya tidak menawarkan CPU tercepat yang ada. Sebuah desain desktop dirancang untuk menahan panas yang lebih tinggi dibanding sebuah laptop, yang berarti laptop harus menggunakan CPU yang lebih lambat dan kurang bertenaga. Prosesor yang lebih cepat juga membutuhkan daya yang lebih besar juga, yang mengakibatkan umur pakai tenaga baterei juga berkurang. Saat ini, portabel tercepat yang tersedia di pasaran adalah 700 MHz, tapi tampaknya dengan desain yang baru, kecepatan tersebut akan segera bertambah.

Di Masa Depan
Pembuat CPU selalu mencari cara untuk meningkatkan performa. Baru-baru ini mereka telah mengganti sistem fabrikasi dari 0.25 mikron ke 0.18 mikron, yang memungkinkan celah yang lebih sempit dalam menempatkan transistor yang lebih kecil, sehingga memungkinkan kecepatan yang lebih tinggi dan panas yang lebih kecil untuk desain arsitektur yang sama. Tambahan lain, interkoneksi antar transistor menggunakan alumunium telah digantikan dengan tembaga, yang mengkonduksikan listrik lebih baik dibanding alumunium.

Tetapi perbaikan ini tidak berarti perlombaan penambahan kecepatan akan berakhir. Intel telah mengumumkan chip Willamette (alias Pentium-4), yang akan berjalan dengan kecepatan 1,5 GHz dan akan tersedia pada akhir tahun ini. Sementara kompetitornya, AMD, juga akan terus menempel ketat pada perlombaan tersebut.
Selengkapnya...

Comment


ShoutMix chat widget

Banner


Search Engine Optimization and SEO Tools
ecommerce web design
Add to Google
Share |
100 Blog Indonesia Terbaik free counters

Tukeran link



Copy kode di bawah masukan di blog anda, saya akan segera linkback kembali

Kolom blog tutorial

follow this blog

iklan

Ada kesalahan di dalam gadget ini
 

Copyright © 2009 by All About Computer Science