Nous sommes envisagés dans l'utilisation de SSD avec Oracle pour accélérer nos courses de migration de test. Il faut actuellement 12-18 heures pour compléter une exécution de la migration, depnding sur le volume de données (nous faisons évidemment beaucoup de performances modifiant également). Nous avons plusieurs boîtes Linux bon marché que nous utilisons pour diverses exécutions et analyses.
Le coût des SSD de Dell est prohibitif. Je me demandais si quiconque a l'expérience d'utiliser des SSD de consommation (tels que les microns cruciaux/micron).
Je réalise que le support de trim pourrait être un problème sur Linux (à l'aide de Centos). Quelqu'un a-t-il utilisé sur Windows 7 pour contrer cela?
Voici le (s) question (s) que je vois avec SSD et bases de données:
Je ne vois pas encore de réponses à votre question et, alors que je n'ai aucune expérience avec l'utilisation de lecteurs SSD de qualité de consommation avec une base de données, je pensais que la question suivante sur Serverfault pourrait être utile:
https://serverfault.com/questions/69037/configuring-sql-for-optimal-performance-ssd-or-hdd
eDIT: J'ai trouvé l'article suivant récemment et j'ai pensé que je l'ajouterais à ma réponse. Il parle d'utiliser des SSD avec SQL Server, mais je pensais que certains des facteurs discutés pourraient également être utiles pour Oracle DBAS.
http://technet.microsoft.com/en-us/magazine/hh334997.aspx (Réduisez les E/S, augmentez les performances)
Les SSD peuvent rendre les données de lecture plus rapidement.
L'écriture ne sera pas plus rapide. Ne pensez même pas à placer les Redo sur le SSD, car ils ne sont écrits que. Pour accélérer l'écriture au Redo: ajoutez plus de lecteurs et de les rayures. Les Redo sont écrites de manière séquentielle afin d'ajouter davantage de broches améliorent le débit d'écriture, jusqu'à ce que vous rencontriez la limite de contrôleur.
Quelle est cette migration de test? Utilise-t-il du code de procédure ou utilise-t-il des ensembles?
Si vous utilisez du code de procédure, assurez-vous de mettre en œuvre des opérations en vrac. Les ensembles sont toujours plus rapides.
J'ai échangé mon ancien disque dur pour un SSD crucial M4 512 MB pour effectuer un test sur une grande base de données Oracle.
J'exécute Oracle 10.2 sous Windows 7 dans VMware.
Les changements de performance sont vraiment impressionnants. L'importation et l'exportation de bases de données et de requêtes SQL sont beaucoup plus rapides.
Cependant, j'ai une erreur étrange apparaissant de temps en temps:
Erreur 2012-06-18 18: 18: 14.177: Erreur lors de la requête d'exécution
Java.sql.sqxception: ora-01578: bloc de données Oracle corrompu (fichier n ° 6, bloc # 1646317)
[.____] ORA-01110: Fichier de données 6: 'C:\Oracle\Produit\10.2.0\oradata\Dune\webdata02.dbf'
Je n'ai jamais eu ce problème avec le même VM sur la même machine avec le disque dur.
Après avoir exécuté DBV sur le fichier, rien n'est marqué comme corrompu.
Je n'ai rien trouvé de cette question.