Joomla.it Forum
Non solo Joomla... => Database => : Kara 04 Jan 2008, 09:55:49
-
Giorno... ;D
la frana dei db viene a chiedere lumi ;D
dopo un intervento dall'alto (nel senso che qualcuno mi ha aiutato con uno pseudo miracolo) sono riuscita a fare un backup del database in remoto e a importarlo in locale. ora però ho un problema... sono riuscita a farlo con un database di modeste dimensioni... quello che mi servirebbe è farlo per un database che zippato pesa quasi 12 mega... non mi viene... mi è stato detto perchè il file è troppo pesante... cosa si deve fare quando il database è così grosso?
domandina n. 2... è normale che invece di popolarmi il precedente db mi crei ex novo (sempre in locale) un nuovo db?
grazie per le risposte ;D
-
se il bd è troppo grosso prova a dividerlo in più files, altrimenti prova a caricarlo sul un db nuovo...
poi sul confing modifichi le patch ecc e sei a posto ;D
ciao
filpi5481
-
IO ho visto che su altervista c'è una sezione particolare per le operazioni di importazione/esportazione di db pesanti: bisognerebbe vedere sul pannello di controllo del tuo hosting se c'è qualcosa del genere.
Per la domanda n.2: sei tu che vuoi creare un nuovo db in locale o te lo fa xampp o chi per lui?
In questo secondo caso prova a:
ovviamente aprire i db precedente;
svuotarlo di tutte le tabelle;
importare il db aggiornato
-
se il bd è troppo grosso prova a dividerlo in più files, altrimenti prova a caricarlo sul un db nuovo...
poi sul confing modifichi le patch ecc e sei a posto ;D
ciao
filpi5481
e come si fa a dividerlo in più files? non centra se il db è nuovo o vecchio, è proprio il comando che non prende... mi è stato detto che dipende dalla grandezza dei file e che phpmyadmin non carica file più grandi di due mega zippati (o una cosa del genere)
IO ho visto che su altervista c'è una sezione particolare per le operazioni di importazione/esportazione di db pesanti: bisognerebbe vedere sul pannello di controllo del tuo hosting se c'è qualcosa del genere.
il fatto è che devo importare in locale e il pannello di controllo è quello di phpmyadmin, non c'è nessun host
Per la domanda n.2: sei tu che vuoi creare un nuovo db in locale o te lo fa xampp o chi per lui?
In questo secondo caso prova a:
ovviamente aprire i db precedente;
svuotarlo di tutte le tabelle;
importare il db aggiornato
me lo fa in automatico quando importo le tabelle (non so se le faccia phpmyadmin visto che tutta l'operazione di importazione del db la faccio tramite phpmyadmin (il programma che uso in locale si chiama easyphp, credo che sia un programma tipo xampp)
-
prova a lanciare la query entrando su sql, nello spazio bianco lancia la query di import e prova a vedere..
ciao
filpi5481
-
prova a lanciare la query entrando su sql, nello spazio bianco lancia la query di import e prova a vedere..
ciao
filpi5481
aehm... non so com'è la query di import... ;D
l'ho premesso che di db non capisco niente ;D
-
Prova così:
crei un nuovo db su phpMyAdmin e lo selezioni
al posto di fare importa, vai sulla piccola scheda "SQL" vicino alla casetta, sotto il logo di phpMyAdmin.
Clicca su importa file, sfogli, selezioni il file zippato del tuo db e esegui: a me indica una dimensione massima di 16.000 e passa KB e se la matematica non è un opinione dovresti facela anxche se per poco).
vediamo...
-
ciao Kara ma quanto hai di Max File Upload Size ?
-
Prova così:
crei un nuovo db su phpMyAdmin e lo selezioni
al posto di fare importa, vai sulla piccola scheda "SQL" vicino alla casetta, sotto il logo di phpMyAdmin.
Clicca su importa file, sfogli, selezioni il file zippato del tuo db e esegui: a me indica una dimensione massima di 16.000 e passa KB e se la matematica non è un opinione dovresti facela anxche se per poco).
vediamo...
lo faccio ma non me lo carica. ho provato a caricare le tabelle a pezzi ma alcune non me le carica perchè sono superiori a 2 mega zippate
Surfbit il limite sono due mega zippati. e ho alcune tabelle che sono superiori a due mega zippati. il problema è che sto seguendo un tutorial per dividere anche la tabella ma è un casino :( già dividendola in 4 parti non ce la fa... possibile che sia così complesso e laborioso ogni volta fare il backup del db per portarlo in locale? :'(
-
chiedero all'host se ti fa questa cortesia ;D
-
chiedero all'host se ti fa questa cortesia ;D
non c'è host, l'importazione devo farla in locale. è per avere la famosa copia del backup salvata. fosse stato l'host l'avrei coperto oro per farmi fare il lavoro ;D
poi mi chiedono perchè odio i db...
ma possibile che nessuno abbia problemi con l'importare i db da remoto in locale? :'(
-
mai fatto non ne vedo lo scopo ( mi tengo il file sql - quello è backup)
cmq
hai provato a fare il dump di SOLE alcune tabelle usando il gzip ( penso di chiami cosi)
-
mai fatto non ne vedo lo scopo ( mi tengo il file sql - quello è backup)
cmq
hai provato a fare il dump di SOLE alcune tabelle usando il gzip ( penso di chiami cosi)
e come fai a sapere se il backup è andato a buon fine se non lo provi? ??? io non mi fido e voglio un riscontro. senza contare che in locale posso provare a fare tutte le modifiche che voglio senza patemi d'animo ;D
ho provato a fare il dump di singole tabelle e zipparle ma ho un paio di tabelle che superano i due mega zippate... una singola tabella è sei mega da sola... ora sto seguendo un tutorial per spezzare la tabella ma anche spezzandola in 4 parti non riesco a far stare ogni pezzetto nei due mega
però mi chiedo perchè deve essere così complesso? possibile che nessuno si carica mai il backup in locale? eppure su qualunque forum vado la raccomandazione di portare il sito in locale è un leit motiv... :(
-
Ciao Kara,
prova con questo:
http://www.ozerov.de/bigdump.php
grazie a questo semplicissimo file da caricare sul vostro server, potrete caricare database anche di grandi dimensioni, in quanto esso spezza in parti molto piu' piccole il database stesso e fa si che la pagina non vada in timeout!
ti raccomando di cancellarlo dal server appena finito l'aggiornamento del database!
-
mai fatto non ne vedo lo scopo ( mi tengo il file sql - quello è backup)
cmq
hai provato a fare il dump di SOLE alcune tabelle usando il gzip ( penso di chiami cosi)
e come fai a sapere se il backup è andato a buon fine se non lo provi? ??? io non mi fido e voglio un riscontro. senza contare che in locale posso provare a fare tutte le modifiche che voglio senza patemi d'animo ;D
ho provato a fare il dump di singole tabelle e zipparle ma ho un paio di tabelle che superano i due mega zippate... una singola tabella è sei mega da sola... ora sto seguendo un tutorial per spezzare la tabella ma anche spezzandola in 4 parti non riesco a far stare ogni pezzetto nei due mega
però mi chiedo perchè deve essere così complesso? possibile che nessuno si carica mai il backup in locale? eppure su qualunque forum vado la raccomandazione di portare il sito in locale è un leit motiv... :(
Giuro ho provato adesso per curiosità con wamp
tutto ok ma non ho le tue dimensioni
per provare se è andato a buon fine rimettilo in remoto
io per esempio ho una sito prova dominio.it/prova
e ovviamente non faccio modifiche in locale !!!
per il resto non so aiutarti
pensa al sito prova in remoto ;D
non è detto che se funge in locale ti funga in remoto
-
Ciao Kara,
prova con questo:
http://www.ozerov.de/bigdump.php
grazie a questo semplicissimo file da caricare sul vostro server, potrete caricare database anche di grandi dimensioni, in quanto esso spezza in parti molto piu' piccole il database stesso e fa si che la pagina non vada in timeout!
ti raccomando di cancellarlo dal server appena finito l'aggiornamento del database!
grazie Alex provo a usarlo :-* :-* :-* :-*
-
Mi chiedo se Kara ha risolto.
Ho aperto inutilmente un altro post, ma anche in questo "importante" non ho trovato la soluzione (o non ho capito)
Sto provando ad importare su locale un sito in joomla. Nell'importare il database phpMyAdmin mi dà questo messaggio:
"Non sono stati ricevuti dati da importare. O non è stato indicato alcun nome file, oppure è stato superata la dimensione massima consentita per il file, impostata nella configurazione di PHP. Vedi FAQ 1.16."
Il file è grande 3,6 MB effettivamente (lui mi impone "Dimensione massima: 2,048 KiB"), ma cosa si fa in questi casi?
Ho provato a creare un database nuovo ed importare quello che mi serve, ma niente.
Bigdump non ho capito come si usa (sempre da phpMyAdmin? da qui a me non funziona comunque)
Dividere il db non ho proprio idea di come si fa...
??? :-\ >:( :'(
-
visto che il tuo db non è molto grande fai così:
esportalo in due passaggi, selezionando prima un tot di tabelle, poi le altre.. (fai 2 file da 2 mb e 2mb)
-
Grazie Filpi, ho pensato anch'io che la soluzione sarebbe stata qualcosa del genere...
ma io con un database non ho mai veramente interagito, ho sempre solo esportato o importato innocui file .sql...
Per cui non proprio ho idea di come fare.
Ho provato ad aprire il file .sql con un editor di testo e dividerlo brutalmente a metà... (ora temo anche il vostro linciaggio)... ma non ha funzionato.
Spero che non perdi le speranze di potermi aiutare.
-
no.. quando esporti il database esportalo selezionando prima un tot di tabelle (a seconda della grandezza) ed esportale in un file .sql chiamato a esempio.. data1
poi selezioni le altre tabelle e le esporti in un file chiamato data2..
fatto questo importi i files nel nuovo db..
ciao
-
Grazie Filpi. Scusa se non ho capito la prima volta, era già chiaro.
Ho risolto un problema, ma ora ne ho trovato un altro peggiore.
E' in particolare la tabella jos_content che pesa 3,4 MB. E' un sito normalissimo, non sto costruendo Wikipedia, per cui non capisco da dove venga tutto questo peso.
Mi sembra un inferno.
:o :o :o
(manca lo smile che urla!! :))
-
Oh mio dio.
e mi sono anche accorto che riguardo le altre tabelle, mi dice che le ha importate correttamente, ma poi non compaiono in realtà e il database rimane sempre con lo (0) ad indicare che non ci sono tabelle.
BASTAAAAAAAA SALVATEMI :'( :'( :'( :'( :'( :'(
Quest'operazione (da remoto a locale) mi è riuscita SEMPRE con altri siti ospitati sul famoso s.g.a.r.a.g.n.a.o, mentre il backup dell'unico che ho su Altervista mi sta facendo impazzire.
C'entra pure altervista in questa storia?
??? ??? ??? ???
-
Filpi ho risolto. Ti ringrazio.
-
ok ;)
se vuoi posta la soluzione per il futuro ;)
-
Ciao Kara,
prova con questo:
http://www.ozerov.de/bigdump.php
grazie a questo semplicissimo file da caricare sul vostro server, potrete caricare database anche di grandi dimensioni, in quanto esso spezza in parti molto piu' piccole il database stesso e fa si che la pagina non vada in timeout!
ti raccomando di cancellarlo dal server appena finito l'aggiornamento del database!
Ciao...scusami ma non riesco a capire sotto quale directory devo mettere questo file...
Mi puoi aiutare?
Grazie
-
ciao Walter Ego, puoi anche metterlo nella cartella principale del tuo sito
-
ti ringrazio Alex.... le sto provando tutte.
Questi db sono proprio un bel problema ???
grazie
-
Io ho risolto semplicemente cambiando il parametro upload_max_filesize = 2M in /etc/php4/apache2/php.ini
alla fine un bel /etc/init.d/apache2 restart e poi ho uppato il database in locale
Giorno... ;D
la frana dei db viene a chiedere lumi ;D
dopo un intervento dall'alto (nel senso che qualcuno mi ha aiutato con uno pseudo miracolo) sono riuscita a fare un backup del database in remoto e a importarlo in locale. ora però ho un problema... sono riuscita a farlo con un database di modeste dimensioni... quello che mi servirebbe è farlo per un database che zippato pesa quasi 12 mega... non mi viene... mi è stato detto perchè il file è troppo pesante... cosa si deve fare quando il database è così grosso?
domandina n. 2... è normale che invece di popolarmi il precedente db mi crei ex novo (sempre in locale) un nuovo db?
grazie per le risposte ;D
-
ho avuto lo stesso problema col DB del mio forum tempo addietro.
Era ai tempi di cca 6 mega e mi andava in timeout il phpmyadmin durante il ripristino.
Ho risulto con un software a dir poco eccellente per la gestione del database.
Dal sito di Mysql scaricate MYSQL GUI TOOLS usate mysql administrator per fare tutto, risolve alla grande in locale e in remoto per qualsiasi dimensione.
-
Ciao valerios, bentrovato, tutto ok?
Grazie per la segnalazione di MYSQL GUI TOOLS, lo proverò
-
ciao, se ho capito bene stai facendo una copia in locale giusto?
se è così allora puoi scaricarti i mysql gui tools.
Una volta installati sul tuo pc, usa mysqladministrator.
Ti chiederà host (localhost) user e password (il resto puoi anche non metterlo...ti chiede anche il default schema ecc...).
Una volta dentro c'è un alberello e una voce è "restore".
Clicchi li ti si apre una maschera, selezioni il file .sql che si è generato con il backup del db e fai import.
Oltretutto ci sono un pò di opzioni del tipo: crea il db se non esiste ecc...
Dai prova e facci sapere!
-
Ciao valerios, bentrovato, tutto ok?
Grazie per la segnalazione di MYSQL GUI TOOLS, lo proverò
Ciao Grande alex, Mysql gui tools secondo me e' eccellente,
-
ciao, se ho capito bene stai facendo una copia in locale giusto?
...
Infatti quelli sono i settaggi per operare in locale, ovviamente si puo' usare anche per operare in remoto direttamente sul server.
In tal caso ovviamente i vostri parametri di accesso saranno il vostro nome di dominio e il vostri username e password di accesso AL CPANEL, non di accesso al db, senno' vi dovrebbe dare errore.
(per farvi capire meglio impostatelo come quando impostate l'accesso ftp)
Penso che l'accoppiamento con filezilla per i nostri backup/rirpisitini totali del server sia una dele soluzioni migliori.
-
Io ho risolto semplicemente cambiando il parametro upload_max_filesize = 2M in /etc/php4/apache2/php.ini
alla fine un bel /etc/init.d/apache2 restart e poi ho uppato il database in locale
quoto questa soluzione, ho avuto il medesimo problema con xampp e ho provato a fare una ricerca nel forum..
ovviamente in lamp diverse il php.ini potrebbe trovarsi in altre cartelle/sottocartelle ma non importa, c'è sempre un solo php.ini quindi basta trovarlo e poi modificare il parametro upload_max_filesize
In locale si può applicare quindi quella soluzione,
Su un server remoto condiviso il php.ini non potete modificarlo e neanche vederlo, nel caso chiedere alla vostra assistenza hosting se cortesemente vi aiuta.
Sui servizi gratuiti ovviamente sarà più difficile e quindi dovrete seguire gli altri consigli-
-
Si...è come dice Francesco.
Basta andare nella cartella apache di easyphp (io uso questo programma), trovare il file php.ini, aprirlo col blocco note, trovare la dicitura : upload_max_filesize = 2M e modificarlo a piacimento (io ad esempio l'ho messo a 10M).
Invece il problema che ho io (sempre parlando di DB Mysql) è che quando sposto un DB da locale a remoto, tutto funziona perfettamente...quando invece faccio l'inverso il contenuto della tabella jos_content (gli articoli in pratica) non sono mai completi. Sempre "monchi" e talvolta completamente vuoti :-\ (anche se l'articolo esiste regolarmente).Non sparisce la riga della tabella, ma il contenuto... mi sapete spiegare come mai?
Grazie mille.
Maria Teresa
-
Risolto il problema dell'import fel DB : il problema era solo nel set di caratteri che differiva tra il remoto ed il locale. Sistemato questo l'importazione in locale funziona perfettamente.
Ciao a tutti.
-
ll mio file .sql è grande 446 MB e probabilmente contiene una serie di query. I dati presenti in questo file li utilizzerò per creare una tabella..sempre che io riesca ad aprirlo! Come posso fare?
Sto ultizzando, come preogramma per gestire i DBs, SQLyog!
Aiutoooo
-
Ho provato il restore con MySQL Administrator e il messaggio di errore che è venuto fuori dopo un oò è il seguente:
"Unknown object in backup file"
Ho proprio bisogno di un aiuto!
-
non capisco perchè tu ti sia "appeso" a qs post che non centra nemmeno nulla con il tuo problema...
per lavorare con il db usa phpmyadmin.
se il db o la tabella è troppo grande dovrai importare un pezzo per volta o se hai un accesso ssh sul server puoi fare da riga di comando che ha un po più di chances di riuscirci.
M.
-
La soluzione migliore per caricare database di grandi dimensioni è utilizzare MySQL Administrator (è la versione free) che è possibile scaricare dal seguente indirizzo:
http://dev.mysql.com/downloads/gui-tools/5.0.html (http://dev.mysql.com/downloads/gui-tools/5.0.html)
-
E' cambiato qualcosa dall'ultimo post di questa discussione? Ho un database da importare in locale con xampp di 319MB. Sono in Joomla 1.5 su di un vecchio sito che non si può upgradare alle ultime versioni di Joomla.
Sto provando in locale perché a breve dovrò far migrazione live, il phpmyadmin di XXX me lo farà caricare o mi darà gli stessi problemi?
-
il phpmyadmin di XXX me lo farà caricare o mi darà gli stessi problemi?
Devi chiedere a loro...
Ciao
-
Devi chiedere a loro...
Ciao
Chiesto, posso importare DB fino a 512MB.
- - -
Mentre in locale la soluzione più valida rimane sto bigdump?
-
Il limite mysql mi sembra sia di 2 Gb, comunque per db grandi il problema non è la grandezza ma piuttosto il tempo, puoi ovviare importando poche tabelle per volta.
-
Ma il tempo non dovrebbe essere un problema no? Essendo in locale.. mi da proprio il messaggio che probabilmente sto importando un file troppo grande. Forse mi sto incasinando io con la configurazione..
-
Il tempo è importante e vale in locale come in remoto, lo si definisce nel file php.ini, ma forse ti conviene suddividere l'export in 5 tabelle alla volta.
-
non può essere il tempo nel mio caso, il messaggio di errore mi esce dopo neanche un secondo che premo esegui
-
Ok non è importants nel tuo caso ma se è importante esportare ed importare il tuo db segui il consiglio di suddividerlo, altrimenti il tempo che perdi cercando una soluzione diversa è o no importante?
-
Beh intanto dovrei leggermi altre dozzine di post per trovare una soluzione su come importare diverse tabelle perché non so come si faccia :) Comunque intendevo dire che non sono così sicuro sia la grandezza il problema a questo punto visto che il messaggio mi compare subito, secondo me sbaglio qualcosa nella configurazione, tant'è che se provo ad installare bigdump.php mi nega l'accesso "Database connection failed due to Access denied".
Quel che ho fatto da http://localhost/phpmyadmin è "crea un nuovo database", gli do un nome a caso (la data di oggi per esempio 160316), poi dall'interno di quel database 160316 clicco "importa" e carico il file di 319MB così com'è che ho scaricato per intero dall'hosting provider (ho provato sia modificando i $db_server; $db_name; $db_username; $db_password sia lasciandoli così come sono). Ho saltato qualcosa secondo voi?
-
Allora esportare tot tabelle è più facile di quello che pensi, apri phpmyadmin, selezioni il db da esportare, spunti le prime 5 tabelle e clicchi su esporta, puoi farlo al limite anche una per volta. Detto questo nella fase di importazione apri il nuovo db con phpmyadmin e clicchi su importa, stop, ripeti il passaggio per ogni set di tabelle che hai esportato.
Comunque ne file export.sql , che cerchi di importare adesso, non deve esserci nessun riferimento a nome e dati di accesso. Tu esporti ed importi solo tabelle e dati e non anche il db. È come se tu volendo fare un trasloco da un appartamento ad un altro carichi nel camion mobili e casa e poi e ovvio che non puoi caricare una casa in un altra casa, a se carichi solo i mobili poi puoi scaricarli in una casa diversa. :)
-
Comunque ne file export.sql , che cerchi di importare adesso, non deve esserci nessun riferimento a nome e dati di accesso. Tu esporti ed importi solo tabelle e dati e non anche il db.
Ma quel file che sto provando ad importare nomefile.sql (che proviene dal sito live) non ha già al suo interno i vari riferimenti a nome e dati di accesso? Una volta esportato devo forse modificarlo?
È come se tu volendo fare un trasloco da un appartamento ad un altro carichi nel camion mobili e casa e poi e ovvio che non puoi caricare una casa in un altra casa, a se carichi solo i mobili poi puoi scaricarli in una casa diversa. :)
Haha, questa rende bene l'idea ;D
L'esport delle tabelle non posso farlo purtroppo perché la versione del phpmyadmin Linux è vecchia e XXX da problemi, mi fa dunque importare solo il nomefile.sql dalla gestione hosting e non da phpmyadmin.
-
... secondo me sbaglio qualcosa nella configurazione, tant'è che se provo ad installare bigdump.php mi nega l'accesso "Database connection failed due to Access denied".
Sicuramente !
Per DB di grandi dimensioni io ho sempre utilizzato BigDump, e se ben configurato, non dovrebbe essere dei problemi.
-
Puoi editare il file e cancellare i dati di connessione, ma non credo sia il tuo caso perché l'errore sarebbe che non trova il db.
-
Ho provato ad aprire il nomefile.sql di 319MB con wordpad per modificarlo togliendo i riferimenti di accesso ma è na faticaccia si impasta e basta probabilmente è troppo grande pure per wordpad :-\
-
Allora 319MB per un file sql non sono pochi, vanno compressi con in un file ZIP, pure con WinRAR puoi farlo impostato la massima compressione dovresti ottenere un file di circa 12 MB
Se usi XAMPP puoi importare file come ti pare basta semmai modificare il file PHP.ini impostando
post_max_size=128MB
upload_max_filesize=128M
fai uno stop e start del server Apache e SQL e potrai caricare file fino a 128MB (ovviamente glieli passi compressi)
Se devi modificare file grandi non si usa WORD o Notepad, puoi usare Notepad++ se non è troppo grande, altrimenti si usa GLOGG puoi caricare anche file da 2 GB, io lo uso a lavoro per leggere i log di file che superano i 300MB e li apre in un attimo...
-
rispondere ad un quesito del 2008 resuscitato nel 2016 oltre che essere anacronistico è inutile.
Siamo nel 2020 e ancora non sappiamo come funzionano i forum tecnici?
Dal 2008 si sono susseguiti tre rami principali di joomla, Obama ha fatto il presidente per 2 mandati e si sono susseguiti 2 papi senza che bisogno che nessuno morisse. Lo zio Bill da programmatore è diventato il filantropo salvatore dell'umanità, mentre mara veniere presenta ancora Domenica IN!
ora, veramente vuoi rispondere?