update
This commit is contained in:
parent
79cad442e2
commit
34207a199c
5 changed files with 721 additions and 276 deletions
|
@ -62,11 +62,13 @@ type DB_GMA2File struct {
|
||||||
type DB_Chunk struct {
|
type DB_Chunk struct {
|
||||||
ID string `json:"_key"`
|
ID string `json:"_key"`
|
||||||
|
|
||||||
|
NotReady bool `json:"notReady"`
|
||||||
Finalized bool `json:"finalized"`
|
Finalized bool `json:"finalized"`
|
||||||
ReadOnly bool `json:"readOnly"`
|
ReadOnly bool `json:"readOnly"`
|
||||||
|
|
||||||
Size int64 `json:"size"`
|
FileCount int `json:"fileCount"`
|
||||||
Hash string `json:"hash"`
|
Size int64 `json:"size"`
|
||||||
|
Hash string `json:"hash"`
|
||||||
}
|
}
|
||||||
|
|
||||||
type DB_File2Chunk struct {
|
type DB_File2Chunk struct {
|
||||||
|
|
|
@ -138,36 +138,47 @@ func (r *GMAReader) readFileMetadata() (GMAFileMetadata, error) {
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return metadata, err
|
return metadata, err
|
||||||
}
|
}
|
||||||
fileName = fileName[:len(fileName)-1] // remove nullbyte
|
//fmt.Printf("bufio ReadString(byte(0)) = len(%d) data=%x\n", len(fileName), fileName)
|
||||||
|
/*if len(fileName) == 1 { //fucky retry
|
||||||
|
fileName, err := r.gmaStreamReader.ReadString(byte(0))
|
||||||
|
if err != nil {
|
||||||
|
return metadata, err
|
||||||
|
}
|
||||||
|
fmt.Printf("RETRY!! bufio ReadString(byte(0)) = len(%d) data=%x\n", len(fileName), fileName)
|
||||||
|
}*/
|
||||||
|
fileName = fileName[:len(fileName)-1] // remove nullbyte that causes go string fuckyness
|
||||||
r.cursorOffset += uint32(len(fileName) + 1) // Add name length + null byte
|
r.cursorOffset += uint32(len(fileName) + 1) // Add name length + null byte
|
||||||
metadata.FileName = fileName
|
metadata.FileName = fileName
|
||||||
|
|
||||||
// Read the file size
|
// Read the file size
|
||||||
fileSizeBytes := make([]byte, 8)
|
fileSizeBytes := make([]byte, 8)
|
||||||
_, err = r.gmaStreamReader.Read(fileSizeBytes)
|
_, err = io.ReadFull(r.gmaStreamReader, fileSizeBytes)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return metadata, err
|
return metadata, err
|
||||||
}
|
}
|
||||||
r.cursorOffset += 8
|
r.cursorOffset += 8
|
||||||
|
//fmt.Printf("bufio Read([]byte(4)]) fileSizeBytes = bytesRead(%d) data=%x\n", bytesRead, fileSizeBytes)
|
||||||
metadata.FileSize = int64(binary.LittleEndian.Uint64(fileSizeBytes))
|
metadata.FileSize = int64(binary.LittleEndian.Uint64(fileSizeBytes))
|
||||||
|
|
||||||
// Read the file crc
|
// Read the file crc
|
||||||
crcBytes := make([]byte, 4)
|
crcBytes := make([]byte, 4)
|
||||||
_, err = r.gmaStreamReader.Read(crcBytes)
|
_, err = io.ReadFull(r.gmaStreamReader, crcBytes)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return metadata, err
|
return metadata, err
|
||||||
}
|
}
|
||||||
r.cursorOffset += 4
|
r.cursorOffset += 4
|
||||||
|
//fmt.Printf("bufio Read([]byte(4)]) crcBytes = bytesRead(%d) data=%x\n", bytesRead, crcBytes)
|
||||||
metadata.CRC = binary.LittleEndian.Uint32(crcBytes)
|
metadata.CRC = binary.LittleEndian.Uint32(crcBytes)
|
||||||
|
|
||||||
// Read the next type
|
// Read the next type
|
||||||
nextTypeBytes := make([]byte, 4)
|
nextTypeBytes := make([]byte, 4)
|
||||||
_, err = r.gmaStreamReader.Read(nextTypeBytes)
|
_, err = io.ReadFull(r.gmaStreamReader, nextTypeBytes)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return metadata, err
|
return metadata, err
|
||||||
}
|
}
|
||||||
r.cursorOffset += 4
|
r.cursorOffset += 4
|
||||||
metadata.NextType = binary.LittleEndian.Uint32(nextTypeBytes)
|
metadata.NextType = binary.LittleEndian.Uint32(nextTypeBytes)
|
||||||
|
//fmt.Printf("bufio Read([]byte(4)]) nextTypeBytes = bytesRead(%d) data=%x\n", bytesRead, nextTypeBytes)
|
||||||
|
|
||||||
return metadata, nil
|
return metadata, nil
|
||||||
}
|
}
|
||||||
|
|
64
main.go
64
main.go
|
@ -114,24 +114,26 @@ func main() {
|
||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
err = colGMA.Truncate(arangoCTX)
|
/*
|
||||||
if err != nil {
|
err = colGMA.Truncate(arangoCTX)
|
||||||
panic(err)
|
if err != nil {
|
||||||
}
|
panic(err)
|
||||||
err = colFile.Truncate(arangoCTX)
|
}
|
||||||
if err != nil {
|
err = colFile.Truncate(arangoCTX)
|
||||||
panic(err)
|
if err != nil {
|
||||||
}
|
panic(err)
|
||||||
err = colGMA2File.Truncate(arangoCTX)
|
}
|
||||||
if err != nil {
|
err = colGMA2File.Truncate(arangoCTX)
|
||||||
panic(err)
|
if err != nil {
|
||||||
}
|
panic(err)
|
||||||
|
}*/
|
||||||
|
|
||||||
// /mnt/worksucc/san2/gma/2/1/2/3/2123406190.1591573904.gma
|
// /mnt/worksucc/san2/gma/2/1/2/3/2123406190.1591573904.gma
|
||||||
//fileHandle, err := os.Open("2143898000.1593250551.bin.gma") //2143898000.1593250551.bin")
|
//fileHandle, err := os.Open("2143898000.1593250551.bin.gma") //2143898000.1593250551.bin")
|
||||||
//gma, err := gma.NewReader("2143898000.1593250551.bin.gma")
|
//gma, err := gma.NewReader("2143898000.1593250551.bin.gma")
|
||||||
|
|
||||||
folderPath := "/mnt/SC9000/TemporaryTestingShit2/" //"/mnt/worksucc/san1/gma/2/5/4/8/"
|
folderPath := "/mnt/SC9000/TemporaryTestingShit/" //"/mnt/worksucc/san1/gma/2/5/4/8/"
|
||||||
|
folderPathTarget := "/mnt/SC9000/ProcessedGMATest/" //"/mnt/worksucc/san1/gma/2/5/4/8/"
|
||||||
//0
|
//0
|
||||||
entries, err := os.ReadDir(folderPath)
|
entries, err := os.ReadDir(folderPath)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
@ -140,22 +142,26 @@ func main() {
|
||||||
skipBla := false
|
skipBla := false
|
||||||
for _, e := range entries {
|
for _, e := range entries {
|
||||||
if !e.IsDir() && skipBla == true {
|
if !e.IsDir() && skipBla == true {
|
||||||
if e.Name() == "2548863549.1626463997.gma" {
|
if e.Name() == "2547463094.1626322945.gma" {
|
||||||
skipBla = false
|
skipBla = false
|
||||||
|
} else {
|
||||||
|
continue
|
||||||
}
|
}
|
||||||
continue
|
|
||||||
}
|
}
|
||||||
if !e.IsDir() {
|
if !e.IsDir() {
|
||||||
err = ProcessGMA(filepath.Join(folderPath, e.Name()))
|
err = ProcessGMA(filepath.Join(folderPath, e.Name()))
|
||||||
if err != nil {
|
if err != nil {
|
||||||
fmt.Printf("\nERROR: %v\n", err)
|
fmt.Printf("\nERROR: %v\n", err)
|
||||||
//panic(err)
|
//panic(err)
|
||||||
|
continue
|
||||||
}
|
}
|
||||||
|
os.Rename(filepath.Join(folderPath, e.Name()), filepath.Join(folderPathTarget, e.Name()))
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
func undoBatch(gmaID string, fileIDs []string, gma2FileIDs []string) (err error) {
|
func undoBatch(undoBatch *bool, gmaID string, fileIDs []string, gma2FileIDs []string) (err error) {
|
||||||
|
fmt.Printf("undoBatch(%x, %s)\n", undoBatch, gmaID)
|
||||||
_, err = colGMA.RemoveDocument(arangoCTX, gmaID)
|
_, err = colGMA.RemoveDocument(arangoCTX, gmaID)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
|
@ -172,8 +178,9 @@ func undoBatch(gmaID string, fileIDs []string, gma2FileIDs []string) (err error)
|
||||||
}
|
}
|
||||||
func ProcessGMA(filePath string) (err error) {
|
func ProcessGMA(filePath string) (err error) {
|
||||||
var (
|
var (
|
||||||
fileIDs []string
|
fileIDs []string
|
||||||
gma2FileIDs []string
|
gma2FileIDs []string
|
||||||
|
failedProcessing = true
|
||||||
)
|
)
|
||||||
dboGMA := common.DB_GMA{}
|
dboGMA := common.DB_GMA{}
|
||||||
dboGMA.BatchID = uuid.NewV4().String() // use this for rapid unscheduled dissassembly
|
dboGMA.BatchID = uuid.NewV4().String() // use this for rapid unscheduled dissassembly
|
||||||
|
@ -187,6 +194,9 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
dboGMA.StatModTime = fileStat.ModTime()
|
dboGMA.StatModTime = fileStat.ModTime()
|
||||||
dboGMA.GMASize = fileStat.Size()
|
dboGMA.GMASize = fileStat.Size()
|
||||||
|
|
||||||
|
if dboGMA.GMASize < 200 {
|
||||||
|
return fmt.Errorf("GMA File too small, skipping")
|
||||||
|
}
|
||||||
fmt.Printf("Opening %s\n", filePath)
|
fmt.Printf("Opening %s\n", filePath)
|
||||||
gmaReader, err := gma.NewReader(filePath)
|
gmaReader, err := gma.NewReader(filePath)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
@ -217,6 +227,9 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
dboGMA.Header = header
|
dboGMA.Header = header
|
||||||
|
fmt.Printf("AddonVersion=%d\n", header.AddonVersion)
|
||||||
|
fmt.Printf("FormatVersion=%d\n", header.FormatVersion)
|
||||||
|
fmt.Printf("FormatVersionDiscardByte=%d\n", header.FormatVersionDiscardByte)
|
||||||
//fmt.Printf("r.cursorOffset = %d\n", gmaReader.GetOffset())
|
//fmt.Printf("r.cursorOffset = %d\n", gmaReader.GetOffset())
|
||||||
firstType, files, err := gmaReader.ReadFiles()
|
firstType, files, err := gmaReader.ReadFiles()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
@ -233,6 +246,9 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
fmt.Printf("%s CRC: %d Offset: %d Size: %d NextType: %d FileNumber: %d\n", file.FileName, file.CRC, file.Offset, file.FileSize, file.NextType, file.FileNumber)
|
fmt.Printf("%s CRC: %d Offset: %d Size: %d NextType: %d FileNumber: %d\n", file.FileName, file.CRC, file.Offset, file.FileSize, file.NextType, file.FileNumber)
|
||||||
if file.NextType > uint32(file.FileNumber+10) { // Something is fucked
|
if file.NextType > uint32(file.FileNumber+10) { // Something is fucked
|
||||||
fmt.Printf("Current Cursor %d", gmaReader.GetOffset())
|
fmt.Printf("Current Cursor %d", gmaReader.GetOffset())
|
||||||
|
for _, otherFile := range files[file.FileNumber:] {
|
||||||
|
fmt.Printf("OTHERFILE %s CRC: %d Offset: %d Size: %d NextType: %d FileNumber: %d\n", otherFile.FileName, otherFile.CRC, otherFile.Offset, otherFile.FileSize, otherFile.NextType, otherFile.FileNumber)
|
||||||
|
}
|
||||||
return fmt.Errorf("GMA Header corrupted, NextType %d, FileNumber %d", file.NextType, file.FileNumber)
|
return fmt.Errorf("GMA Header corrupted, NextType %d, FileNumber %d", file.NextType, file.FileNumber)
|
||||||
}
|
}
|
||||||
destPath := filepath.Join(gmaTempPath, "contents", file.FileName)
|
destPath := filepath.Join(gmaTempPath, "contents", file.FileName)
|
||||||
|
@ -298,6 +314,8 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
dboGMA.ProcessingEnd = time.Now()
|
dboGMA.ProcessingEnd = time.Now()
|
||||||
dboGMA.ProcessingDuration = dboGMA.ProcessingEnd.Sub(dboGMA.ProcessingStart).Milliseconds()
|
dboGMA.ProcessingDuration = dboGMA.ProcessingEnd.Sub(dboGMA.ProcessingStart).Milliseconds()
|
||||||
|
|
||||||
|
// if anything fails, lets undo the documents we imported
|
||||||
|
defer undoBatch(&failedProcessing, dboGMA.ID, fileIDs, gma2FileIDs)
|
||||||
// TODO: Calculate dboGMA.OptimizedSize
|
// TODO: Calculate dboGMA.OptimizedSize
|
||||||
dboGMA.OptimizedSize = 0
|
dboGMA.OptimizedSize = 0
|
||||||
_, err = colGMA.CreateDocument(arangoCTX, dboGMA)
|
_, err = colGMA.CreateDocument(arangoCTX, dboGMA)
|
||||||
|
@ -420,9 +438,12 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
var httpClient *http.Client = http.DefaultClient
|
var httpClient *http.Client = &http.Client{
|
||||||
|
Timeout: 15 * time.Minute,
|
||||||
|
}
|
||||||
|
|
||||||
for _, dboGMA2File := range dboGMA2Files {
|
for _, dboGMA2File := range dboGMA2Files {
|
||||||
//fmt.Printf("WriteFile for %s number %d = %s\n", dboGMA2File.FileName, dboGMA2File.FileNumber, dboGMA2File.UploadID)
|
fmt.Printf("WriteFile for %s number %d = %s\n", dboGMA2File.FileName, dboGMA2File.FileNumber, dboGMA2File.UploadID)
|
||||||
resp, err := httpClient.Get(fmt.Sprintf("http://127.0.0.1:13371/fetch/%s", dboGMA2File.UploadID))
|
resp, err := httpClient.Get(fmt.Sprintf("http://127.0.0.1:13371/fetch/%s", dboGMA2File.UploadID))
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
|
@ -434,7 +455,7 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
gmaWriter.FileHandle.Seek(0, 2)
|
gmaWriter.FileHandle.Seek(0, 2)
|
||||||
//fmt.Printf("Writing Footer CRC %d\n\n", dboGMA.FooterAddonCRC)
|
fmt.Printf("Writing Footer CRC %d\n\n", dboGMA.FooterAddonCRC)
|
||||||
gmaWriter.WriteFooterCRC(dboGMA.FooterAddonCRC)
|
gmaWriter.WriteFooterCRC(dboGMA.FooterAddonCRC)
|
||||||
|
|
||||||
gmaWriter.FileHandle.Seek(0, 0)
|
gmaWriter.FileHandle.Seek(0, 0)
|
||||||
|
@ -471,5 +492,6 @@ func ProcessGMA(filePath string) (err error) {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
|
|
||||||
|
failedProcessing = false
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
1
storageserver/arango.go
Normal file
1
storageserver/arango.go
Normal file
|
@ -0,0 +1 @@
|
||||||
|
package main
|
|
@ -3,7 +3,9 @@ package main
|
||||||
import (
|
import (
|
||||||
"archive/tar"
|
"archive/tar"
|
||||||
"context"
|
"context"
|
||||||
|
"crypto/sha256"
|
||||||
"crypto/tls"
|
"crypto/tls"
|
||||||
|
"errors"
|
||||||
"fmt"
|
"fmt"
|
||||||
"io"
|
"io"
|
||||||
"log"
|
"log"
|
||||||
|
@ -12,9 +14,11 @@ import (
|
||||||
"path"
|
"path"
|
||||||
"path/filepath"
|
"path/filepath"
|
||||||
"strconv"
|
"strconv"
|
||||||
|
"strings"
|
||||||
"sync"
|
"sync"
|
||||||
"time"
|
"time"
|
||||||
|
|
||||||
|
"git.cheetah.cat/worksucc/gma-puzzles/common"
|
||||||
adriver "github.com/arangodb/go-driver"
|
adriver "github.com/arangodb/go-driver"
|
||||||
ahttp "github.com/arangodb/go-driver/http"
|
ahttp "github.com/arangodb/go-driver/http"
|
||||||
"github.com/labstack/echo/v4"
|
"github.com/labstack/echo/v4"
|
||||||
|
@ -32,13 +36,15 @@ type Pool struct {
|
||||||
Finalized bool `json:"finalized"`
|
Finalized bool `json:"finalized"`
|
||||||
ReadOnly bool `json:"readOnly"`
|
ReadOnly bool `json:"readOnly"`
|
||||||
Size uint64 `json:"size"`
|
Size uint64 `json:"size"`
|
||||||
folder string `json:"-"`
|
//folder string `json:"-"`
|
||||||
|
|
||||||
itemCount int
|
itemCount int
|
||||||
items []string
|
items []string
|
||||||
|
|
||||||
file *os.File
|
wormMode bool
|
||||||
tarWriter *tar.Writer
|
filePath string
|
||||||
|
file *os.File
|
||||||
|
//tarWriter *tar.Writer
|
||||||
tarReader *tar.Reader
|
tarReader *tar.Reader
|
||||||
}
|
}
|
||||||
type PoolFile struct {
|
type PoolFile struct {
|
||||||
|
@ -54,247 +60,15 @@ type PoolMaster struct {
|
||||||
|
|
||||||
LocalPools []Pool
|
LocalPools []Pool
|
||||||
FullPools []Pool
|
FullPools []Pool
|
||||||
|
WORMPools map[string]Pool
|
||||||
}
|
}
|
||||||
|
type PoolPackResult struct {
|
||||||
func NewPoolMaster(finalPath string, cachePath string) (poolMaster PoolMaster, err error) {
|
PoolID string
|
||||||
poolMaster.finalPath = finalPath
|
Files []string
|
||||||
poolMaster.cachePath = cachePath
|
FileCount int
|
||||||
//poolMaster.lock = sync.Mutex{}
|
Size int64
|
||||||
|
Hash string
|
||||||
destPath := filepath.Join(poolMaster.cachePath, "pool")
|
outputFileName string
|
||||||
err = os.MkdirAll(destPath, os.ModePerm)
|
|
||||||
if err != nil {
|
|
||||||
return poolMaster, err
|
|
||||||
}
|
|
||||||
err = os.MkdirAll(poolMaster.finalPath, os.ModePerm)
|
|
||||||
if err != nil {
|
|
||||||
return poolMaster, err
|
|
||||||
}
|
|
||||||
return poolMaster, nil
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) NewPool() (pool *Pool, err error) {
|
|
||||||
pool = &Pool{}
|
|
||||||
pool.PoolID = uuid.NewV4().String()
|
|
||||||
pool.Finalized = false
|
|
||||||
pool.ReadOnly = false
|
|
||||||
//TODO : Sync to DB
|
|
||||||
destPath := filepath.Join(p.cachePath, "pool", pool.PoolID)
|
|
||||||
//dir := filepath.Dir(destPath)
|
|
||||||
err = os.MkdirAll(destPath, os.ModePerm)
|
|
||||||
if err != nil {
|
|
||||||
return pool, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return pool, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (p *PoolMaster) GetCurrentWriteablePool() (pool *Pool, err error) {
|
|
||||||
if p.CurrentPool != nil && p.CurrentPool.itemCount >= PoolMaxItems {
|
|
||||||
p.lock.Lock()
|
|
||||||
defer p.lock.Unlock()
|
|
||||||
p.CurrentPool.ReadOnly = true
|
|
||||||
p.FullPools = append(p.FullPools, *p.CurrentPool)
|
|
||||||
// queue for compression
|
|
||||||
p.CurrentPool = nil
|
|
||||||
}
|
|
||||||
if p.CurrentPool == nil {
|
|
||||||
pool, err = p.AcquireNewOrRecoverPool()
|
|
||||||
if err != nil {
|
|
||||||
return pool, err
|
|
||||||
}
|
|
||||||
p.CurrentPool = pool
|
|
||||||
return pool, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
return p.CurrentPool, nil
|
|
||||||
}
|
|
||||||
func RestorePoolFromFolder(folderPath string) (pool Pool, err error) {
|
|
||||||
pool.PoolID = path.Base(folderPath)
|
|
||||||
|
|
||||||
entries, err := os.ReadDir(folderPath)
|
|
||||||
if err != nil {
|
|
||||||
return pool, err
|
|
||||||
}
|
|
||||||
for _, e := range entries {
|
|
||||||
if !e.IsDir() {
|
|
||||||
pool.items = append(pool.items, e.Name())
|
|
||||||
pool.itemCount++
|
|
||||||
}
|
|
||||||
}
|
|
||||||
pool.ReadOnly = pool.itemCount >= PoolMaxItems
|
|
||||||
pool.Finalized = false // we are still local
|
|
||||||
|
|
||||||
return pool, err
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) ScanForLocalPools() (err error) {
|
|
||||||
p.lock.Lock()
|
|
||||||
defer p.lock.Unlock()
|
|
||||||
entries, err := os.ReadDir(filepath.Join(p.cachePath, "pool"))
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
for _, e := range entries {
|
|
||||||
if e.IsDir() {
|
|
||||||
fmt.Printf("Scanning For Local Pools, found %s:\n", e.Name())
|
|
||||||
poolDirPath := filepath.Join(p.cachePath, "pool", e.Name())
|
|
||||||
restoredPool, err := RestorePoolFromFolder(poolDirPath)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
fmt.Printf("is readonly %v itemCount=%d\n", restoredPool.ReadOnly, restoredPool.itemCount)
|
|
||||||
p.LocalPools = append(p.LocalPools, restoredPool)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) AcquireNewOrRecoverPool() (pool *Pool, err error) {
|
|
||||||
// p.NewPool()
|
|
||||||
for _, localPool := range p.LocalPools {
|
|
||||||
if !localPool.ReadOnly {
|
|
||||||
return &localPool, nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return p.NewPool()
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) Lookup(id string) (exists bool) {
|
|
||||||
if p.CurrentPool != nil {
|
|
||||||
for _, poolItem := range p.CurrentPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
for _, fullPool := range p.FullPools {
|
|
||||||
for _, poolItem := range fullPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
for _, localPool := range p.LocalPools {
|
|
||||||
for _, poolItem := range localPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
// TODO : DB Check
|
|
||||||
return false
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) Fetch(id string, writer io.Writer) (err error) {
|
|
||||||
if p.CurrentPool != nil {
|
|
||||||
for _, poolItem := range p.CurrentPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
fmt.Printf("Fetch CurrentPool %s\n", id)
|
|
||||||
poolLocalFilePath := filepath.Join(p.cachePath, "pool", p.CurrentPool.PoolID, id)
|
|
||||||
//fmt.Println(poolLocalFilePath)
|
|
||||||
//fmt.Printf("%s %s\n", p.CurrentPool.PoolID, poolItem)
|
|
||||||
srcLocalFile, err := os.Open(poolLocalFilePath)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
//fmt.Println("Closer")
|
|
||||||
defer srcLocalFile.Close()
|
|
||||||
//fmt.Println("io.Copy")
|
|
||||||
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
for _, fullPool := range p.FullPools {
|
|
||||||
for _, poolItem := range fullPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
fmt.Printf("Fetch FullPool %s\n", id)
|
|
||||||
poolLocalFilePath := filepath.Join(p.cachePath, "pool", fullPool.PoolID, id)
|
|
||||||
//fmt.Println(poolLocalFilePath)
|
|
||||||
//fmt.Printf("%s %s\n", fullPool.PoolID, poolItem)
|
|
||||||
srcLocalFile, err := os.Open(poolLocalFilePath)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
//fmt.Println("Closer")
|
|
||||||
defer srcLocalFile.Close()
|
|
||||||
//fmt.Println("io.Copy")
|
|
||||||
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
for _, localPool := range p.LocalPools {
|
|
||||||
for _, poolItem := range localPool.items {
|
|
||||||
if poolItem == id {
|
|
||||||
fmt.Printf("Fetch LocalPool %s\n", id)
|
|
||||||
poolLocalFilePath := filepath.Join(p.cachePath, "pool", localPool.PoolID, id)
|
|
||||||
//fmt.Println(poolLocalFilePath)
|
|
||||||
//fmt.Printf("%s %s\n", localPool.PoolID, poolItem)
|
|
||||||
srcLocalFile, err := os.Open(poolLocalFilePath)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
//fmt.Println("Closer")
|
|
||||||
defer srcLocalFile.Close()
|
|
||||||
//fmt.Println("io.Copy")
|
|
||||||
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
func (p *PoolMaster) Store(id string, src io.Reader, targetSize int64) (err error) {
|
|
||||||
|
|
||||||
pool, err := p.GetCurrentWriteablePool()
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
p.lock.Lock()
|
|
||||||
defer p.lock.Unlock()
|
|
||||||
poolFolder := filepath.Join(p.cachePath, "pool", pool.PoolID)
|
|
||||||
destPath := filepath.Join(poolFolder, id)
|
|
||||||
dst, err := os.Create(destPath)
|
|
||||||
if err != nil {
|
|
||||||
_ = os.Remove(destPath)
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
defer dst.Close()
|
|
||||||
|
|
||||||
writtenBytes, err := io.Copy(dst, src)
|
|
||||||
if err != nil {
|
|
||||||
_ = os.Remove(destPath)
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
if writtenBytes != targetSize {
|
|
||||||
_ = os.Remove(destPath)
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
pool.itemCount++
|
|
||||||
pool.items = append(pool.items, id)
|
|
||||||
fmt.Printf("Current Pool %s, ItemCount = %d\n", pool.PoolID, pool.itemCount)
|
|
||||||
|
|
||||||
entries, err := os.ReadDir(poolFolder)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
newItemCount := 0
|
|
||||||
for _, e := range entries {
|
|
||||||
if !e.IsDir() {
|
|
||||||
pool.items = append(pool.items, e.Name())
|
|
||||||
newItemCount++
|
|
||||||
}
|
|
||||||
}
|
|
||||||
pool.itemCount = newItemCount
|
|
||||||
fmt.Printf("Current Pool %s, Recounted ItemCount = %d\n", pool.PoolID, pool.itemCount)
|
|
||||||
if pool.itemCount >= PoolMaxItems {
|
|
||||||
pool.ReadOnly = true
|
|
||||||
}
|
|
||||||
|
|
||||||
return nil
|
|
||||||
}
|
}
|
||||||
|
|
||||||
var (
|
var (
|
||||||
|
@ -303,6 +77,9 @@ var (
|
||||||
colChunk adriver.Collection
|
colChunk adriver.Collection
|
||||||
colFile adriver.Collection
|
colFile adriver.Collection
|
||||||
colFile2Chunk adriver.Collection
|
colFile2Chunk adriver.Collection
|
||||||
|
|
||||||
|
// PoolMaster
|
||||||
|
poolMaster PoolMaster
|
||||||
)
|
)
|
||||||
|
|
||||||
func ConnectDB(baseURL string, arangoUser string, arangoPWD string, arangoDatabase string) (driver adriver.Database, ctx context.Context, err error) {
|
func ConnectDB(baseURL string, arangoUser string, arangoPWD string, arangoDatabase string) (driver adriver.Database, ctx context.Context, err error) {
|
||||||
|
@ -367,12 +144,626 @@ func InitDatabase() (err error) {
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
var (
|
func (p *Pool) OpenTar() (err error) {
|
||||||
poolMaster PoolMaster
|
p.wormMode = true
|
||||||
//poolFiles = []PoolFile{}
|
|
||||||
//seq = 1
|
outputDir := filepath.Join(poolMaster.cachePath, "worm", p.PoolID)
|
||||||
//lock = sync.Mutex{}
|
err = os.MkdirAll(outputDir, os.ModePerm)
|
||||||
)
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
p.file, err = os.Open(p.filePath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
p.items = []string{}
|
||||||
|
p.tarReader = tar.NewReader(p.file)
|
||||||
|
for {
|
||||||
|
header, err := p.tarReader.Next()
|
||||||
|
if err == io.EOF {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
path := filepath.Join(outputDir, header.Name)
|
||||||
|
info := header.FileInfo()
|
||||||
|
file, err := os.OpenFile(path, os.O_CREATE|os.O_TRUNC|os.O_WRONLY, info.Mode())
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer file.Close()
|
||||||
|
_, err = io.Copy(file, p.tarReader)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
p.items = append(p.items, header.Name)
|
||||||
|
fmt.Print(".")
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
func (p *Pool) Fetch(id string, writer io.Writer) (err error) {
|
||||||
|
for _, poolItem := range p.items {
|
||||||
|
if poolItem == id {
|
||||||
|
fmt.Printf("Fetch WORMPool %s\n", id)
|
||||||
|
poolLocalFilePath := filepath.Join(poolMaster.cachePath, "worm", p.PoolID, id)
|
||||||
|
srcLocalFile, err := os.Open(poolLocalFilePath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer srcLocalFile.Close()
|
||||||
|
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return fmt.Errorf("%s not found", id)
|
||||||
|
}
|
||||||
|
|
||||||
|
func NewPoolMaster(finalPath string, cachePath string) (poolMaster PoolMaster, err error) {
|
||||||
|
poolMaster.finalPath = finalPath
|
||||||
|
poolMaster.cachePath = cachePath
|
||||||
|
poolMaster.WORMPools = make(map[string]Pool)
|
||||||
|
//poolMaster.lock = sync.Mutex{}
|
||||||
|
|
||||||
|
destPath := filepath.Join(poolMaster.cachePath, "pool")
|
||||||
|
err = os.MkdirAll(destPath, os.ModePerm)
|
||||||
|
if err != nil {
|
||||||
|
return poolMaster, err
|
||||||
|
}
|
||||||
|
|
||||||
|
destPath = filepath.Join(poolMaster.cachePath, "worm")
|
||||||
|
err = os.MkdirAll(destPath, os.ModePerm)
|
||||||
|
if err != nil {
|
||||||
|
return poolMaster, err
|
||||||
|
}
|
||||||
|
|
||||||
|
err = os.MkdirAll(poolMaster.finalPath, os.ModePerm)
|
||||||
|
if err != nil {
|
||||||
|
return poolMaster, err
|
||||||
|
}
|
||||||
|
return poolMaster, nil
|
||||||
|
}
|
||||||
|
func (p *PoolMaster) NewPool() (pool *Pool, err error) {
|
||||||
|
pool = &Pool{}
|
||||||
|
pool.PoolID = uuid.NewV4().String()
|
||||||
|
pool.Finalized = false
|
||||||
|
pool.ReadOnly = false
|
||||||
|
//TODO : Sync to DB
|
||||||
|
destPath := filepath.Join(p.cachePath, "pool", pool.PoolID)
|
||||||
|
//dir := filepath.Dir(destPath)
|
||||||
|
err = os.MkdirAll(destPath, os.ModePerm)
|
||||||
|
if err != nil {
|
||||||
|
return pool, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return pool, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *PoolMaster) GetCurrentWriteablePool() (pool *Pool, err error) {
|
||||||
|
//fmt.Printf("Current Pool %s, ItemCount = %d\n", pool.PoolID, pool.itemCount)
|
||||||
|
if p.CurrentPool != nil && p.CurrentPool.itemCount >= PoolMaxItems {
|
||||||
|
p.lock.Lock()
|
||||||
|
defer p.lock.Unlock()
|
||||||
|
p.CurrentPool.ReadOnly = true
|
||||||
|
p.FullPools = append(p.FullPools, *p.CurrentPool)
|
||||||
|
// queue for compression
|
||||||
|
fmt.Printf("GetCurrentWriteablePool(): current Pool (%s) is full (%d), creating new one", p.CurrentPool.PoolID, p.CurrentPool.itemCount)
|
||||||
|
p.CurrentPool = nil
|
||||||
|
}
|
||||||
|
if p.CurrentPool == nil {
|
||||||
|
pool, err = p.AcquireNewOrRecoverPool()
|
||||||
|
if err != nil {
|
||||||
|
return pool, err
|
||||||
|
}
|
||||||
|
p.CurrentPool = pool
|
||||||
|
return pool, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
return p.CurrentPool, nil
|
||||||
|
}
|
||||||
|
func RestorePoolFromFolder(folderPath string) (pool Pool, err error) {
|
||||||
|
pool.PoolID = path.Base(folderPath)
|
||||||
|
|
||||||
|
entries, err := os.ReadDir(folderPath)
|
||||||
|
if err != nil {
|
||||||
|
return pool, err
|
||||||
|
}
|
||||||
|
for _, e := range entries {
|
||||||
|
if !e.IsDir() {
|
||||||
|
pool.items = append(pool.items, e.Name())
|
||||||
|
pool.itemCount++
|
||||||
|
}
|
||||||
|
}
|
||||||
|
pool.ReadOnly = pool.itemCount >= PoolMaxItems
|
||||||
|
pool.Finalized = false // we are still local
|
||||||
|
|
||||||
|
return pool, err
|
||||||
|
}
|
||||||
|
func (p *PoolMaster) ScanForLocalPools() (err error) {
|
||||||
|
p.lock.Lock()
|
||||||
|
defer p.lock.Unlock()
|
||||||
|
entries, err := os.ReadDir(filepath.Join(p.cachePath, "pool"))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
for _, e := range entries {
|
||||||
|
if e.IsDir() {
|
||||||
|
fmt.Printf("Scanning For Local Pools, found %s:", e.Name())
|
||||||
|
|
||||||
|
tarFinalPath := filepath.Join(p.finalPath, fmt.Sprintf("%s.tar", e.Name()))
|
||||||
|
_, err = os.Stat(tarFinalPath)
|
||||||
|
finalPathExists := false
|
||||||
|
if err != nil {
|
||||||
|
if !errors.Is(err, os.ErrNotExist) {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
dboChunkExists, err := colChunk.DocumentExists(arangoCTX, e.Name())
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if dboChunkExists {
|
||||||
|
var dboChunk common.DB_Chunk
|
||||||
|
_, err := colChunk.ReadDocument(arangoCTX, e.Name(), &dboChunk)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
finalPathExists = dboChunk.Finalized && dboChunk.ReadOnly && !dboChunk.NotReady
|
||||||
|
fmt.Printf("is in DB readonly %v finalized %v notready %v itemCount=%d size=%d hash=%s\n", dboChunk.ReadOnly, dboChunk.Finalized, dboChunk.NotReady, dboChunk.FileCount, dboChunk.Size, dboChunk.Hash)
|
||||||
|
if finalPathExists {
|
||||||
|
fmt.Println("skipping")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
if finalPathExists {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
|
||||||
|
poolDirPath := filepath.Join(p.cachePath, "pool", e.Name())
|
||||||
|
restoredPool, err := RestorePoolFromFolder(poolDirPath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
fmt.Printf("is readonly %v itemCount=%d\n", restoredPool.ReadOnly, restoredPool.itemCount)
|
||||||
|
p.LocalPools = append(p.LocalPools, restoredPool)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
// Pool Packing
|
||||||
|
func (p *PoolMaster) ImportPoolPackResult(packResult PoolPackResult) (err error) {
|
||||||
|
startTime := time.Now()
|
||||||
|
dboChunk := common.DB_Chunk{
|
||||||
|
ID: packResult.PoolID,
|
||||||
|
Hash: packResult.Hash,
|
||||||
|
Size: packResult.Size,
|
||||||
|
FileCount: packResult.FileCount,
|
||||||
|
NotReady: true,
|
||||||
|
ReadOnly: true,
|
||||||
|
Finalized: true,
|
||||||
|
}
|
||||||
|
var dboChunk2File []common.DB_File2Chunk
|
||||||
|
for _, prFile := range packResult.Files {
|
||||||
|
dboChunk2File = append(dboChunk2File, common.DB_File2Chunk{
|
||||||
|
ID: prFile,
|
||||||
|
File: fmt.Sprintf("file/%s", prFile),
|
||||||
|
Chunk: fmt.Sprintf("chunk/%s", dboChunk.ID),
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
|
_, err = colChunk.CreateDocument(arangoCTX, dboChunk)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
chunkSize := 500
|
||||||
|
for {
|
||||||
|
if len(dboChunk2File) == 0 {
|
||||||
|
break
|
||||||
|
}
|
||||||
|
|
||||||
|
// necessary check to avoid slicing beyond
|
||||||
|
// slice capacity
|
||||||
|
if len(dboChunk2File) < chunkSize {
|
||||||
|
chunkSize = len(dboChunk2File)
|
||||||
|
}
|
||||||
|
|
||||||
|
_, errorSlice, _ := colFile2Chunk.CreateDocuments(arangoCTX, dboChunk2File[0:chunkSize])
|
||||||
|
//metaSlice, errorSlice, _ := colFile2Chunk.CreateDocuments(arangoCTX, dboChunk2File[0:chunkSize])
|
||||||
|
|
||||||
|
//fmt.Println("Metaslice")
|
||||||
|
//fmt.Println(metaSlice)
|
||||||
|
/*for _, meta := range metaSlice {
|
||||||
|
if !meta.ID.IsEmpty() {
|
||||||
|
newUnknownFiles = append(newUnknownFiles, meta.Key)
|
||||||
|
fileIDs = append(fileIDs, meta.Key)
|
||||||
|
}
|
||||||
|
}*/
|
||||||
|
for _, createError := range errorSlice {
|
||||||
|
if createError != nil && strings.Contains(createError.Error(), "unique constraint violated - in index primary of type primary over '_key'") {
|
||||||
|
} else if createError != nil {
|
||||||
|
return createError
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
dboChunk2File = dboChunk2File[chunkSize:]
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("ImportPool Duration %dms\n", time.Since(startTime).Milliseconds())
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
func (p *PoolMaster) MovePoolPackToWORM(packResult PoolPackResult) (err error) {
|
||||||
|
startTime := time.Now()
|
||||||
|
|
||||||
|
targetFileName := filepath.Join(p.finalPath, fmt.Sprintf("%s.tar", packResult.PoolID))
|
||||||
|
os.Rename(packResult.outputFileName, targetFileName)
|
||||||
|
|
||||||
|
tarFileCheck, err := os.Open(targetFileName)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer tarFileCheck.Close()
|
||||||
|
|
||||||
|
shaHasher := sha256.New()
|
||||||
|
_, err = io.Copy(shaHasher, tarFileCheck)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
wormHash := fmt.Sprintf("%x", shaHasher.Sum(nil))
|
||||||
|
fmt.Printf("WORMTarPool hash is %s , old is %s\n", wormHash, packResult.Hash)
|
||||||
|
if wormHash != packResult.Hash {
|
||||||
|
os.Remove(targetFileName)
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
fmt.Printf("MoveWORM Duration %dms\n", time.Since(startTime).Milliseconds())
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
func (p *PoolMaster) PackPool(poolID string) (packResult PoolPackResult, err error) {
|
||||||
|
startTime := time.Now()
|
||||||
|
packResult.PoolID = poolID
|
||||||
|
|
||||||
|
p.lock.Lock()
|
||||||
|
defer p.lock.Unlock()
|
||||||
|
|
||||||
|
packResult.outputFileName = filepath.Join(p.cachePath, "pool", fmt.Sprintf("%s.tar", poolID))
|
||||||
|
tarFile, err := os.Create(packResult.outputFileName)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
defer tarFile.Close()
|
||||||
|
|
||||||
|
tw := tar.NewWriter(tarFile)
|
||||||
|
defer tw.Close()
|
||||||
|
|
||||||
|
entries, err := os.ReadDir(filepath.Join(p.cachePath, "pool", poolID))
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
//fmt.Printf("len(entries) == %d\n", len(entries))
|
||||||
|
if len(entries) != PoolMaxItems {
|
||||||
|
return packResult, fmt.Errorf("Pool contains %d items, but there should be %d", len(entries), PoolMaxItems)
|
||||||
|
}
|
||||||
|
for _, e := range entries {
|
||||||
|
originalPath := filepath.Join(p.cachePath, "pool", poolID, e.Name())
|
||||||
|
|
||||||
|
file, err := os.Open(originalPath)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
defer file.Close()
|
||||||
|
|
||||||
|
info, err := file.Stat()
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
|
||||||
|
tarFileHeader, err := tar.FileInfoHeader(info, info.Name())
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
err = tw.WriteHeader(tarFileHeader)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
|
||||||
|
_, err = io.Copy(tw, file)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
packResult.FileCount++
|
||||||
|
packResult.Files = append(packResult.Files, e.Name())
|
||||||
|
}
|
||||||
|
|
||||||
|
err = tw.Flush()
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
|
||||||
|
err = tarFile.Close()
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
|
||||||
|
// re-open and check
|
||||||
|
|
||||||
|
tarFileCheck, err := os.Open(packResult.outputFileName)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
defer tarFileCheck.Close()
|
||||||
|
|
||||||
|
shaHasher := sha256.New()
|
||||||
|
hashedBytes, err := io.Copy(shaHasher, tarFileCheck)
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
packResult.Hash = fmt.Sprintf("%x", shaHasher.Sum(nil))
|
||||||
|
fmt.Printf("PackPoolTar hash is %s\n", packResult.Hash)
|
||||||
|
|
||||||
|
packFileStats, err := tarFileCheck.Stat()
|
||||||
|
if err != nil {
|
||||||
|
return packResult, err
|
||||||
|
}
|
||||||
|
packResult.Size = packFileStats.Size()
|
||||||
|
if hashedBytes != packResult.Size {
|
||||||
|
return packResult, fmt.Errorf("WORM Copy HashedBytes %d != FileSize %d", hashedBytes, packResult.Size)
|
||||||
|
}
|
||||||
|
fmt.Printf("PackPool Duration %dms\n", time.Since(startTime).Milliseconds())
|
||||||
|
|
||||||
|
return packResult, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *PoolMaster) AcquireNewOrRecoverPool() (pool *Pool, err error) {
|
||||||
|
// p.NewPool()
|
||||||
|
for _, localPool := range p.LocalPools {
|
||||||
|
if !localPool.ReadOnly {
|
||||||
|
return &localPool, nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return p.NewPool()
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *PoolMaster) Lookup(id string) (exists bool) {
|
||||||
|
// TODO: DB check
|
||||||
|
if p.CurrentPool != nil { // CurrentPool
|
||||||
|
for _, poolItem := range p.CurrentPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, wormPool := range p.WORMPools { // WORM Pools
|
||||||
|
for _, poolItem := range wormPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, fullPool := range p.FullPools { // Full Pools
|
||||||
|
for _, poolItem := range fullPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, localPool := range p.LocalPools { // Local Pools
|
||||||
|
for _, poolItem := range localPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
return true
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
// TODO : DB Check
|
||||||
|
// ArangoDB
|
||||||
|
dboFile2ChunkExists, err := colFile2Chunk.DocumentExists(arangoCTX, id)
|
||||||
|
if err != nil {
|
||||||
|
return false
|
||||||
|
}
|
||||||
|
return dboFile2ChunkExists
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *PoolMaster) FetchLoadWORM(chunkID string, fileID string, writer io.Writer) (err error) {
|
||||||
|
fmt.Printf("FetchLoadWORM(chunkID %s, fileID %s, ...)\n", chunkID, fileID)
|
||||||
|
// search within loaded worm-pools
|
||||||
|
for wormID, wormPool := range p.WORMPools {
|
||||||
|
if wormID != chunkID {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
for _, poolItem := range wormPool.items {
|
||||||
|
if poolItem == fileID {
|
||||||
|
fmt.Printf("Fetch WORMPool %s file %s\n", wormID, fileID)
|
||||||
|
return wormPool.Fetch(fileID, writer)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
break
|
||||||
|
}
|
||||||
|
// else load wormPool into disk-cache extract to "worm"
|
||||||
|
// wormMode
|
||||||
|
|
||||||
|
p.lock.Lock()
|
||||||
|
defer p.lock.Unlock()
|
||||||
|
|
||||||
|
var dboChunk common.DB_Chunk
|
||||||
|
_, err = colChunk.ReadDocument(arangoCTX, chunkID, &dboChunk)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
loadedWormPool := Pool{
|
||||||
|
PoolID: dboChunk.ID,
|
||||||
|
Size: uint64(dboChunk.Size),
|
||||||
|
ReadOnly: dboChunk.ReadOnly,
|
||||||
|
Finalized: dboChunk.Finalized,
|
||||||
|
|
||||||
|
filePath: filepath.Join(p.finalPath, fmt.Sprintf("%s.tar", dboChunk.ID)),
|
||||||
|
}
|
||||||
|
fmt.Println("initialized loadedWormPool, Opening tar...")
|
||||||
|
err = loadedWormPool.OpenTar()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
fmt.Println("extracted")
|
||||||
|
p.WORMPools[loadedWormPool.PoolID] = loadedWormPool
|
||||||
|
return loadedWormPool.Fetch(fileID, writer)
|
||||||
|
//return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func (p *PoolMaster) Fetch(id string, writer io.Writer) (err error) {
|
||||||
|
if p.CurrentPool != nil {
|
||||||
|
for _, poolItem := range p.CurrentPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
fmt.Printf("Fetch CurrentPool %s\n", id)
|
||||||
|
poolLocalFilePath := filepath.Join(p.cachePath, "pool", p.CurrentPool.PoolID, id)
|
||||||
|
//fmt.Println(poolLocalFilePath)
|
||||||
|
//fmt.Printf("%s %s\n", p.CurrentPool.PoolID, poolItem)
|
||||||
|
srcLocalFile, err := os.Open(poolLocalFilePath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
//fmt.Println("Closer")
|
||||||
|
defer srcLocalFile.Close()
|
||||||
|
//fmt.Println("io.Copy")
|
||||||
|
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, wormPool := range p.WORMPools {
|
||||||
|
for _, poolItem := range wormPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
fmt.Printf("Fetch WORMPool %s file %s\n", wormPool.PoolID, id)
|
||||||
|
return wormPool.Fetch(id, writer)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, fullPool := range p.FullPools {
|
||||||
|
for _, poolItem := range fullPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
fmt.Printf("Fetch FullPool %s\n", id)
|
||||||
|
poolLocalFilePath := filepath.Join(p.cachePath, "pool", fullPool.PoolID, id)
|
||||||
|
srcLocalFile, err := os.Open(poolLocalFilePath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer srcLocalFile.Close()
|
||||||
|
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
for _, localPool := range p.LocalPools {
|
||||||
|
for _, poolItem := range localPool.items {
|
||||||
|
if poolItem == id {
|
||||||
|
fmt.Printf("Fetch LocalPool %s\n", id)
|
||||||
|
poolLocalFilePath := filepath.Join(p.cachePath, "pool", localPool.PoolID, id)
|
||||||
|
srcLocalFile, err := os.Open(poolLocalFilePath)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer srcLocalFile.Close()
|
||||||
|
if _, err = io.Copy(writer, srcLocalFile); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
// ArangoDB
|
||||||
|
dboFile2ChunkExists, err := colFile2Chunk.DocumentExists(arangoCTX, id)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
fmt.Printf("dboFile2ChunkExists %s = %v\n", id, dboFile2ChunkExists)
|
||||||
|
if dboFile2ChunkExists {
|
||||||
|
var dboFile2Chunk common.DB_File2Chunk
|
||||||
|
_, err = colFile2Chunk.ReadDocument(arangoCTX, id, &dboFile2Chunk)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
//FetchFromPoolPack
|
||||||
|
//dboFile2Chunk.Chunk <- which chunk i need to find
|
||||||
|
return p.FetchLoadWORM(dboFile2Chunk.Chunk[6:], id, writer)
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
func (p *PoolMaster) Store(id string, src io.Reader, targetSize int64) (err error) {
|
||||||
|
|
||||||
|
pool, err := p.GetCurrentWriteablePool()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if pool.ReadOnly {
|
||||||
|
return fmt.Errorf("WTF Pool %s is ReadOnly but GetCurrentWriteablePool returned it", pool.PoolID)
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("Store(%s)\n", id)
|
||||||
|
|
||||||
|
p.lock.Lock()
|
||||||
|
defer p.lock.Unlock()
|
||||||
|
// figuring out paths
|
||||||
|
poolFolder := filepath.Join(p.cachePath, "pool", pool.PoolID)
|
||||||
|
destPath := filepath.Join(poolFolder, id)
|
||||||
|
dst, err := os.Create(destPath)
|
||||||
|
if err != nil {
|
||||||
|
_ = os.Remove(destPath)
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
defer dst.Close()
|
||||||
|
// copy from ioReader to file
|
||||||
|
writtenBytes, err := io.Copy(dst, src)
|
||||||
|
if err != nil {
|
||||||
|
_ = os.Remove(destPath)
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
if writtenBytes != targetSize {
|
||||||
|
_ = os.Remove(destPath)
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
// check transferred data
|
||||||
|
dst.Seek(0, 0)
|
||||||
|
shaHasher := sha256.New()
|
||||||
|
if _, err := io.Copy(shaHasher, dst); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
outputHash := fmt.Sprintf("%x", shaHasher.Sum(nil))
|
||||||
|
if outputHash != id {
|
||||||
|
return fmt.Errorf("Store() Sha256 Hash Mismatch")
|
||||||
|
}
|
||||||
|
|
||||||
|
pool.itemCount++
|
||||||
|
pool.items = append(pool.items, id)
|
||||||
|
fmt.Printf("Current Pool %s, ItemCount = %d\n", pool.PoolID, pool.itemCount)
|
||||||
|
|
||||||
|
entries, err := os.ReadDir(poolFolder)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
newItemCount := 0
|
||||||
|
for _, e := range entries {
|
||||||
|
if !e.IsDir() {
|
||||||
|
pool.items = append(pool.items, e.Name())
|
||||||
|
newItemCount++
|
||||||
|
}
|
||||||
|
}
|
||||||
|
pool.itemCount = newItemCount
|
||||||
|
fmt.Printf("Current Pool %s, Recounted ItemCount = %d\n", pool.PoolID, pool.itemCount)
|
||||||
|
if pool.itemCount >= PoolMaxItems {
|
||||||
|
pool.ReadOnly = true
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
func main() {
|
func main() {
|
||||||
err := InitDatabase()
|
err := InitDatabase()
|
||||||
|
@ -390,6 +781,24 @@ func main() {
|
||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
|
for _, localPool := range poolMaster.LocalPools {
|
||||||
|
if localPool.ReadOnly {
|
||||||
|
fmt.Printf("Packing Pool %s\n", localPool.PoolID)
|
||||||
|
packResult, err := poolMaster.PackPool(localPool.PoolID)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
err = poolMaster.ImportPoolPackResult(packResult)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
err = poolMaster.MovePoolPackToWORM(packResult)
|
||||||
|
if err != nil {
|
||||||
|
panic(err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
// packResult.FileCount
|
||||||
|
}
|
||||||
e := echo.New()
|
e := echo.New()
|
||||||
//e.Use(middleware.Logger())
|
//e.Use(middleware.Logger())
|
||||||
|
|
||||||
|
|
Loading…
Add table
Reference in a new issue