Dear all, saya mau tanya, ada yang pernah menggunakan SQL*loader dengan jumlah file banyak tidak ? kondisinya seperti ini, saya ada data CSV ukuran sekitar 2 MB, jumlah ada 26 ribu file. jumlah recordnya : 230 juta. saat ini saya buat script SQL*loader dengan option direct=true, dan me load-data tersebut dengan java. data itu sendiri diletakkan dalam 91 tabel terpisah, di mana setiap saya selesai mengirim 1 perintah sql*loader, saya langsung mengirim perintah berikutnya ke tabel yang berbeda. Yang jadi masalah : ketika jumlah recordnya sekitar 150 juta, file bisa masuk dengan baik. Ketika recordnya mencapai di atas 200 juta, jumlah data yang masuk lebih kecil dari jumlah baris (ada data2 yang terbuang), sedangkan di log file, bad file, maupun discard file menujukkan data masuk semua
pertanyaan : masalahnya sebenernya apa? dan bagaimana mengatasinya? terima kasih. [Non-text portions of this message have been removed]

