Tắt Quảng Cáo [X] Đăng Nhập để ẩn Tất Cả Quảng Cáo Đang có một bài tập khá hay từ một hệ thống đang làm nên đem lên anh em cùng thảo luận cũng như nhận đóng góp từ các anh em. Hệ thống này work ở 5 nước và có tổng cộng 9 DB và mỗi DB tầm 20 table với lượng data từ 1990 đến nay. Đang có một vấn đề đó là clone data về máy dev để debug (vì store, function khá nhiều), máy dev thì lại chỉ sử dụng SQL Server bản Express nên bị giới hạn (với file .bak) thì chỉ có 4GB. Hệ thống cũng chạy backup daily(file .bak) và file daily này lúc nào cũng lớn hơn 4GB mỗi DB ( nhắc lại là có 9DB). Bài tập là làm sao để lấy data tầm 3 tháng về máy dev (do tính chất nghiệp vụ liên quan đến báo cáo/ simulation v.vv.. nên data ít nhất phải 3 tháng). Anh em trong group đã làm hoặc có ý tưởng gì có thể comment thảo luận nhé. 3 hướng mình đang nghĩ: 1. Chia nhỏ file .bak ra. 2. Xuất ra file .sql. 3. Xuất ra csv (2) và (3) thì có làm một tool đọc csv import vào DB trên máy dev nhưng đang lo là tạch vì performance hoặc treo máy luôn. #j2team_discussion Mong ad duyệt bài, cuối tuần có thời gian từ ý tưởng làm cái trial.
Bottleneck ở đâu thì gỡ ở đó -> SQL Server Express. Các cách workaround có thể giúp nhưng nếu dev nào cũng phải làm tương tự thì số thời gian của mỗi dev nhân lên theo thời gian dài thì tổn thất còn cao hơn cả việc nâng cấp tool
Bài tập thì tìm cách giải quyết chày cối được thôi. Chứ thực tế thì phải nâng, trước sau gì cũng phải nâng thôi Nâng tool để rút ngắn thời gian dev hay tốn thêm mandays ngồi giải quyết mấy cái vấn đề đấy
copy cái mdf, ndf về nếu được =))), còn không thì xuất dữ liệu ra thành code sql rồi run import (SQL có hỗ trợ). shrink DB ra rồi copy từng phần về đó là các cách vật lý. Còn không dựng API rồi kéo về, cái này thì hại performance trùm =))) tào lao lại ảnh hưởng vận hành. Còn chết ngắc luôn rồi thì xuất csv =)))))))))))
bác generate ra script insert sql nhưng trunk ra giống phân trang ấy bác, mỗi file gồm 2 3k dòng insert để tránh bị đơ
Em k bít câu trả lời cho vấn đề của bác nhưng em muốn hỏi là cả cục db của bác nặng bao gh nhỉ ? Mà e đọc thấy bk mỗi ngày 4 gb/db thế 1 con db nặng 4gb × 9 con đâu đó 36 gb hở bác. Mà tại sao mình lại backup hết cả db , chứ k backup mỗi phần thay đổi của từng ngày => lượng backup nhỏ đi => e thắc mắc là có giải pháp nào cho vấn đề này k nhỉ .
cách 2 hoặc 3 và optimize import bằng các cách: - dùng lệnh mysqlimport - tắt autocomit - tắt index google để biết thêm chi tiết, case này nhiều ng hỏi và cũng nhiều câu trả lời lắm
Có ai biết tại sao mình mua dung lượng (cụ thể là 50GB/month) check thì vẫn dư rất nhiều nhưng máy vẫn cứ báo đầy dung lượng không vậy ạ (em đã chuyển ảnh và các mục vào Cloud rồi ạ mà vẫn bị thế này)
Hãy tham gia Group MMO lớn nhất trên Telegram tại Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO ToolsKiemTrieuDoGroup và group Facebook tại Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO để nhận được bộ công cụ change info PC, Full tool của Antidetect+ Sưu tầm, AntiOS, FontFingerprint Antidetect browser Gologin miễn phí không giới hạn trọn đời và nhiều công cụ hỗ trợ khác phục vụ cho việc dropshipping, cheat air drop, whitelist ///////////////////////// Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO Vui lòng đăng kí hoặc đăng nhập để thấy liên kết tại BigMMO