Hãy đăng bài và bài viết ca bn s đưc lên top tìm kiếm google

Diễn đàn SEO bài viết lên Google Search tốt nhất

Đang có một bài tập khá hay từ một hệ thống đang làm nên đem lên anh em...

Thảo luận trong 'J2TEAM Community' bắt đầu bởi Phan Hải, 14/10/21.

  1. Đang có một bài tập khá hay từ một hệ thống đang làm nên đem lên anh em cùng thảo luận cũng như nhận đóng góp từ các anh em.

    Hệ thống này work ở 5 nước và có tổng cộng
    9 DB và mỗi DB tầm 20 table với lượng data từ 1990 đến nay. Đang có một vấn đề đó là clone data về máy dev để debug (vì store, function khá nhiều), máy dev thì lại chỉ sử dụng SQL Server bản Express nên bị giới hạn (với file .bak) thì chỉ có 4GB.

    Hệ thống cũng chạy backup daily(file .bak) và file daily này lúc nào cũng lớn hơn 4GB mỗi DB ( nhắc lại là có 9DB). Bài tập là làm sao để lấy data tầm 3 tháng về máy dev (do tính chất nghiệp vụ liên quan đến báo cáo/ simulation v.vv.. nên data ít nhất phải 3 tháng). Anh em trong group đã làm hoặc có ý tưởng gì có thể comment thảo luận nhé. 3 hướng mình đang nghĩ:

    1. Chia nhỏ file .bak ra.
    2. Xuất ra file .sql.
    3. Xuất ra csv
    (2) và (3) thì có làm một tool đọc csv import vào DB trên máy dev nhưng đang lo là tạch vì performance hoặc treo máy luôn.

    #j2team_discussion

    Mong ad duyệt bài, cuối tuần có thời gian từ ý tưởng làm cái trial.
     
  2. Làm api để dev cào về =))
     
  3. Cài bản mssql developer
     
  4. Sao ko nâng SQL Server ở máy Dev lên version cao hơn nhỉ? Hay đề bài ko cho nâng. =))
     
  5. Bottleneck ở đâu thì gỡ ở đó -> SQL Server Express.
    Các cách workaround có thể giúp nhưng nếu dev nào cũng phải làm tương tự thì số thời gian của mỗi dev nhân lên theo thời gian dài thì tổn thất còn cao hơn cả việc nâng cấp tool
     
  6. Bản express giới hạn 10Gb mà nhỉ
     
  7. Bài tập thì tìm cách giải quyết chày cối được thôi. Chứ thực tế thì phải nâng, trước sau gì cũng phải nâng thôi Nâng tool để rút ngắn thời gian dev hay tốn thêm mandays ngồi giải quyết mấy cái vấn đề đấy :v
     
  8. Đề có cấm nâng sql server lên không bác chứ nâng lên cho rồi hoặc xài api để lấy nó về :v
     
  9. Anh em lưu ý là đề bài ko dc đổi, đi giải bài tập mà nghĩ đến thay đổi đề bài đầu tiên là ko dc.
     
  10. Xoè tiền ra nâng sql máy dev lên :v
     
  11. copy cái mdf, ndf về nếu được =))), còn không thì xuất dữ liệu ra thành code sql rồi run import (SQL có hỗ trợ).
    shrink DB ra rồi copy từng phần về đó là các cách vật lý.
    Còn không dựng API rồi kéo về, cái này thì hại performance trùm =))) tào lao lại ảnh hưởng vận hành.
    Còn chết ngắc luôn rồi thì xuất csv =)))))))))))
     
  12. bác generate ra script insert sql nhưng trunk ra giống phân trang ấy bác, mỗi file gồm 2 3k dòng insert để tránh bị đơ :D
     
  13. có Partition thì backup từng đoạn một, stor với trigger thì viết cái script lấy tự động về thui
     
  14. Em k bít câu trả lời cho vấn đề của bác nhưng em muốn hỏi là cả cục db của bác nặng bao gh nhỉ ?
    Mà e đọc thấy bk mỗi ngày 4 gb/db thế 1 con db nặng 4gb × 9 con đâu đó 36 gb hở bác.
    Mà tại sao mình lại backup hết cả db , chứ k backup mỗi phần thay đổi của từng ngày => lượng backup nhỏ đi => e thắc mắc là có giải pháp nào cho vấn đề này k nhỉ .
     
  15. cách 2 hoặc 3 và optimize import bằng các cách:
    - dùng lệnh mysqlimport
    - tắt autocomit
    - tắt index
    google để biết thêm chi tiết, case này nhiều ng hỏi và cũng nhiều câu trả lời lắm
     
  16. Có ai biết tại sao mình mua dung lượng (cụ thể là 50GB/month) check thì vẫn dư rất nhiều nhưng máy vẫn cứ báo đầy dung lượng không vậy ạ (em đã chuyển ảnh và các mục vào Cloud rồi ạ mà vẫn bị thế này)